Alle Ausgaben der HRRS, Aufsätze und Anmerkungen ab dem Jahr 2000.
HRRS
Onlinezeitschrift für Höchstrichterliche Rechtsprechung zum Strafrecht
Januar 2026
27. Jahrgang
PDF-Download
Von RA und Notar Dr. iur. Dr. rer. pol. Fabian Teichmann, LL.M., EMBA (Oxford), St. Gallen/Zürich
Die Entscheidung des Bundesverfassungsgerichts vom 16. Februar 2023 zu § 25a HSOG und § 49 HmbPolDVG markiert einen Wendepunkt für den Einsatz automatisierter Datenanalysen im Polizeirecht. Der Beitrag zeigt, dass der algorithmisch generierte Mehrwert nicht lediglich eine technische Effizienzsteigerung darstellt, sondern einen eigenständigen, grundrechtsrelevanten Eingriff mit erheblichem "Eigengewicht" begründet. Aufbauend auf einer systematischen Auswertung der einschlägigen Literatur, der verfassungsgerichtlichen Rechtsprechung sowie der unionsrechtlichen Vorgaben des AI Act wird ein integrativer Prüfungsrahmen entwickelt, der Zweckbindung, Verhältnismäßigkeit und Transparenz als gleichrangige Leitplanken verknüpft. Im Mittelpunkt stehen (1) die dogmatische Neubestimmung der Eingriffsschwellen im präventiven Vorfeldrecht, (2) die kompetenzielle Trennlinie zwischen Gefahrenabwehr und strafprozessualer Verfolgungsvorsorge, (3) die datenschutzrechtliche Verschränkung von JI‑Richtlinie und § 71 BDSG sowie (4) das unionsrechtliche Verbot personenbezogener Risikoprofile. Der Beitrag unterbreitet konkrete Reformvorschläge: materielle Daten‑ und Methodenkataloge, gestufte Gefahrenschwellen, ein strafprozessuales Analyse‑Regime mit Richtervorbehalt und ein dreistufiges Governance‑Modell aus unabhängigen Prüfstellen, Bias‑Audits und Public‑Code‑Verpflichtungen. Damit wird ein kohärenter Ordnungsrahmen skizziert, der den legitimen Sicherheitsinteressen Rechnung trägt, ohne die verfassungsrechtlichen Freiheits‑ und Gleichheitsgarantien zu unterminieren.
Die digitale Durchdringung sämtlicher Lebensbereiche hat in den letzten Jahren eine sicherheitsbehördliche Infrastruktur hervorgebracht, die auf großskalige Datenaggregation und ‑analyse setzt. Polizeiliche Informationssysteme verknüpfen verschiedenartige Bestände – von Melde‑ und Ausländerregistern über Telekommunikationsdaten bis hin zu Open‑Source‑Feeds – und speisen sie in lernfähige Algorithmen ein, um Deliktsmuster, Netzwerke oder Risikoprofile aufzudecken. Bereits in der allgemeinen Verwaltungsdigitalisierung markiert dieser Schritt einen Paradigmenwechsel: Der Fokus verschiebt sich von punktuellen, manuell geführten Ermittlungsschritten hin zu permanenten, automatisierten Prognosen, die das Handeln der Exekutive in Echtzeit steuern sollen. Kulick beschreibt diesen Trend als "Verheißung eines besonders hohen Maßes an Sicherheit" durch KI‑gestützte Mustererkennung, warnt jedoch zugleich vor einer "Personalisierung" des Gefahrenabwehrrechts, die das traditionelle Dogma der Situationsbezogenheit unterläuft.[1]
Technisch firmiert diese Entwicklung unter dem Schlagwort Predictive Policing. Wischmeyer definiert es als automatisiertes Verfahren der "Gefahrverdachtserkennung", das polizeiliche Ressourcen so allokiert, dass Beamtinnen und Beamte präventiv eingreifen können, bevor eine Rechtsgutsverletzung eintritt.[2] Solche Systeme reichen von einfachen Near‑Repeat‑Modellen wie PreCobs bis zu hochkomplexen Plattformen wie Palantirs Gotham, die in Hessen als hessenDATA implementiert wurde. Die rechtspolitische Attraktivität liegt auf der Hand: Wo klassische Kriminalstatistik retrospektiv agiert, verspricht datengetriebene Analytik einen Prospektivblick auf künftige Delikte und Verdächtige.
Gleichwohl verdichtet sich seit 2023 ein verfassungsrechtliches Korrektiv. Das Bundesverfassungsgericht hat in seinen Entscheidungen zu § 25a HSOG und § 49 HmbPolDVG klargestellt, dass jede automatisierte Datenanalyse einen eigenständigen Eingriff in das Grundrecht auf informationelle Selbstbestimmung darstellt und daher nur unter strengen Voraussetzungen zulässig ist.[3] Das Gericht betont das "Eigengewicht" solcher Analysen, das sich nicht in der Zweckbindung der Primärdatenerhebung erschöpft; vielmehr entstehen neue Belastungseffekte durch datengetriebene Wissensgenerierung, die den Gesetzgeber zu normklaren Begrenzungen von Datenarten, Analyseverfahren und Zielpersonen verpflichten.
Neben der grundrechtlichen Dimension rücken damit auch Diskriminierungs‑ und Transparenzrisiken ins
Zentrum. Steege verweist auf empirische Beispiele, in denen KI‑gestützte Klassifikationsmodelle Minderheiten systematisch benachteiligen, weil Trainingsdaten soziale Vorurteile reproduzieren.[4] Die Exekutive sieht sich folglich mit einem doppelten Legitimationsdruck konfrontiert: Sie muss einerseits den prognostischen Nutzen plausibilisieren und andererseits algorithmische Verzerrungen kontrollieren, um nicht die Gleichheit vor dem Gesetz in Frage zu stellen.
Vor diesem Hintergrund verfolgt der vorliegende Beitrag zwei Anliegen. Erstens soll er die verfassungs‑, datenschutz‑ und kompetenzrechtlichen Leitplanken herausarbeiten, die der automatisierten Gefahrenprognose gesetzt sind. Zweitens werden technische Eigenheiten und Bias‑Gefahren analysiert, um praxisorientierte Reformvorschläge für eine verfassungsfeste, diskriminierungsfreie Sicherheitsarchitektur zu entwickeln. Die folgende Untersuchung bewegt sich damit an der Schnittstelle von Polizei‑ und Strafprozessrecht, Grundrechtsschutz sowie Governance‑Fragen algorithmischer Systeme.
Das allgemeine Persönlichkeitsrecht schützt nach der klassischen Formel des Bundesverfassungsgerichts (BVerfG) die "Selbstbestimmung über die Preisgabe und Verwendung persönlicher Daten". Mit der Entscheidung zu § 25a HSOG und § 49 HmbPolDVG hat das Gericht diesen Schutz in das Zeitalter algorithmischer Gefahrenprognosen übertragen und klargestellt, dass jede automatisierte Analyse personenbezogener Massendaten einen eigenständigen Grundrechtseingriff darstellt.[5] Dieses "Eigengewicht" resultiert daraus, dass die Zusammenführung vormals getrennter Datenbestände neuartige Wissensextrakte erzeugt, die ihre Betroffenen weder vorhersehen noch kontrollieren können.[6]
Die dogmatische Konsequenz besteht darin, die informationelle Selbstbestimmung als technologieoffenes Abwehrrecht zu begreifen, das sich nicht in der Schutzpflicht vor Datenerhebung erschöpft, sondern jede nachgelagerte Analyse‑ und Verknüpfungshandlung erfasst. Schulenberg spricht insoweit von einem "Zweiteingriff", der einer eigenständigen verfassungsrechtlichen Rechtfertigung bedarf und an den Zweckbindungsgrundsatz zurückgebunden ist.[7]
Gleichzeitig entfaltet die Rechtsprechung eine dimensionale Erweiterung der IT‑Grundrechte. Während das Volkszählungsurteil 1983 primär auf staatliche Datenerhebung zielte, verlagert sich die verfassungsrechtliche Prüfungsdichte heute auf die algorithmische Wissensproduktion. Kulick weist darauf hin, dass sich damit eine "Personalisierung des Gefahrenabwehrrechts" vollzieht, die das traditionelle Dogma der Situationsbezogenheit zugunsten personenbezogener Risikoprofile verschiebt.[8] Dieser Trend vergrößert das Gefahrpotenzial für Grundrechtsverletzungen, weil Betroffene nicht mehr anlassbezogen überwacht, sondern in dauerhafte Risikokategorien einsortiert werden.
Die informationelle Selbstbestimmung wirkt folglich als Scharniergrundrecht zwischen klassischem Datenschutz, dem Schutz der Vertraulichkeit und Integrität informationstechnischer Systeme sowie dem Diskriminierungsverbot. Steege zeigt, dass algorithmische Klassifikationsmodelle zur Reproduktion sozialer Vorurteile tendieren – ein Umstand, der den Gleichheitssatz in Art. 3 GG berührt und damit die Grundrechtsdogmatik um Antidiskriminierungsdimensionen erweitert.[9]
Aus verfahrensrechtlicher Sicht verlangt die verfassungsgerichtliche Linie Transparenz‑ und Kontrollvorkehrungen, die sowohl den Betroffenen als auch externen Aufsichtsinstanzen Einsicht in Datenquellen, Analyseparameter und Risikomodelle gewähren. Hornung betont, dass die mangelnde Nachvollziehbarkeit komplexer KI‑Systeme die Effektivität des Rechtsschutzes nach Art. 19 IV GG gefährdet; er plädiert deshalb für gesetzliche Begründungs‑ und Offenlegungspflichten als "Explainability‑Korrektiv".[10]
Schließlich strahlt der Schutz der informationellen Selbstbestimmung in das Kompetenzgefüge zwischen Polizei‑ und Strafprozessrecht aus. Die funktionelle Doppelrolle der Polizei zwingt Gesetzgeber, präventive und repressive Datenverarbeitungen strikt zu entflechten.[11] Andernfalls droht eine "Verpolizeilichung" strafprozessualer Garantien, wenn algorithmische Tools ohne differenzierte Rechtsgrundlagen in beiden Sphären eingesetzt werden.[12]
Das Grundrecht auf informationelle Selbstbestimmung bildet das zentrale Gegenwarts‑ und Zukunftsschutzrecht im digitalen Sicherheitsstaat. Es schützt nicht nur vor unkontrollierter Datenerhebung, sondern vor der algorithmischen Konstruktion von Wissen über Personen. Damit fungiert es als normative Leitplanke für jede Form automatisierter Datenanalyse und verpflichtet den Gesetzgeber zu präzisen, transparenten und diskriminierungsfesten Regelungen.
Die Zweckbindung bildet das "Scharnierprinzip" zwischen Ersterhebung und jeder nachfolgenden Verarbeitung personenbezogener Daten. Nach ständiger Rechtsprechung des Bundesverfassungsgerichts (BVerfG) begründet jede
zweckändernde Nutzung einen neuen Grundrechtseingriff; die Legitimationslast kann nicht auf die Rechtsgrundlage der Primärdatenerhebung abgewälzt werden.[13] Damit wird die automatisierte Datenanalyse, sobald sie Datenbestände aus ihrem ursprünglichen Kontext löst, zum eigenständigen, rechtfertigungsbedürftigen Eingriff in die informationelle Selbstbestimmung.
Schulenberg fasst diese Dogmatik prägnant als "Zweiteingriffslehre": Offenlegung und algorithmische Neuzuordnung erzeugen ein aliud gegenüber der ursprünglichen Erhebung, weil sie zusätzliche Persönlichkeitsrisiken realisieren.[14] Das Gewicht dieses Zweiteingriffs hängt nach dem BVerfG von zwei Parametern ab: (1) dem Belastungswert der Primärmaßnahme und (2) dem Eigengewicht der Analyse, das sich aus Art, Umfang und Zusammenführung der Daten sowie der eingesetzten Methode ergibt.[15]
Gesetzgeberisch folgt hieraus ein zweistufiges Prüfungsschema. Stufe 1 fragt, ob die neue Verwendung noch vom ursprünglichen Erhebungszweck gedeckt ist. Ist dies zu verneinen, schließt sich Stufe 2 an: Die Verarbeitung bedarf einer separaten, hinreichend bestimmten Ermächtigungsgrundlage, die das Was, Wie und Wer der Datenverarbeitung bestimmt und zugleich Auswertungsmethoden normenklar begrenzt. Die hessische Regelung in § 25a HSOG versucht dies, indem sie drei alternative Zwecke – Gefahrabwehr, konkretisierte Gefahr und vorbeugende Bekämpfung schwerer Straftaten – benennt sowie bestimmte Datenarten explizit ausschließt.[16] Gleichwohl beanstandete das BVerfG die Norm, weil sie weder Datenumfang noch Analyseverfahren genügend determiniert und damit die Zweckbindung nur formal, nicht aber materiell wahrt.[17]
Auch einfachgesetzliche Datenschutzregime spiegeln diese Anforderungen wider. § 71 BDSG schreibt "Privacy by Design" vor und verpflichtet Verantwortliche, bereits in der Planungsphase technische Vorkehrungen zu treffen, um Daten ausschließlich für festgelegte Zwecke nutzbar zu machen.[18] Parallel dazu verlangt Art. 10 JI‑Richtlinie 2016/680/EU eine strikte Zweckbindung für polizeiliche Datenverarbeitung.[19]
Die Landesgesetzgebungspraxis illustriert indes Persistenz von "funktionalem Drift". NRW führte 2022 in § 23 Abs. 6 PolG NRW eine datenbankübergreifende Analysebefugnis ein, die laut Gesetzesbegründung nur "klarstellend" sein sollte, tatsächlich aber neue Zweckverschiebungen ermöglichte.[20] Datenschutzaufsichtsbehörden beanstandeten diese weite Öffnung als verfassungswidrig, weil sie die Schwelle zwischen Gefahrenabwehr und strafprozessualer Vorsorge verwische.
Erstens müssen Gesetze das Zulässigkeitsspektrum einer Zweckänderung qualitativ und quantitativ determinieren; Blankettermächtigungen, die lediglich auf "polizeiliche Aufgaben" verweisen, genügen nicht. Zweitens ist ein belastungsadäquates Schutzkonzept erforderlich: Bei weitreichenden Analysen (z. B. KI‑gestütztes Clustering verschiedener Register) verlangt das BVerfG Eingriffsschwellen, die klassischen verdeckten Maßnahmen (§§ 100a ff. StPO) entsprechen. Drittens bedarf es Transparenzvorgaben – Protokollierung, unabhängige Audits und Betroffeneninformation –, um das Zielbindungsgebot ex post überprüfbar zu machen.[21]
Zweckbindung fungiert als dynamische Schranke für datenbasierte Sicherheitsstrategien. Jede algorithmische Sekundärnutzung verlangt eine spezifische Rechtsgrundlage, die materiell‑rechtliche Grenzen (Datenarten, Analyseverfahren) und prozedurale Sicherungen (Dokumentation, Kontrolle) kombiniert. Ohne diese Konkretisierung führt Big‑Data‑Analyse unweigerlich zu verfassungswidrigen Zweckverschiebungen und unterläuft das Vertrauen in eine grundrechtskonforme Polizeiarbeit.
Das Bundesverfassungsgericht verankert die automatisierte Datenanalyse fest im klassischen Verhältnismäßigkeitsprinzip und entwickelt hierfür eine zweistufige Eingriffsgewicht‑Matrix. Ausgangspunkt ist der Gedanke, dass die automatisierte Weiterverarbeitung nicht nur an das Gewicht der Primärdatenerhebung anknüpft, sondern wegen ihres "Eigengewichts" eigenständige Belastungen erzeugt.[22] Dieses Eigengewicht bestimmt sich qualitativ nach Art und Umfang der einbezogenen Daten sowie nach den Analyse‑ und Auswertungsmethoden; quantitativ wirkt die Häufigkeit der Abrufe als Verstärker.
Ermöglicht ein Tool die Verarbeitung heterogener Datenbestände (z. B. Verkehrs‑, Telekommunikations‑, Register‑ und Open‑Source‑Daten) mittels lernfähiger Algorithmen, qualifiziert das Gericht den Vorgang als schwerwiegend. Solche Maßnahmen dürfen nur zum Schutz "besonders gewichtiger Rechtsgüter" und erst bei einer "hinreichend konkretisierten Gefahr" eingesetzt werden.[23] Die Schwelle entspricht den Anforderungen an klassische verdeckte Überwachungsmaßnahmen, etwa Telefonüberwachung oder Online‑Durchsuchung.
Lässt sich das Analyse‑Spektrum hingegen gesetzlich eng begrenzen – etwa durch Ausschluss sensibler Datenkategorien, Beschränkung auf statistische Auswertungen oder strikte Manual‑Trigger –, darf die Eingriffsschwelle abgesenkt werden. Maßstab bleibt dann die "abstrakte Gefahr" im Sinne des traditionellen Polizeirechts. Die hessische
Norm § 25a HSOG versucht dies, indem sie Tele‑ und Verkehrsdaten für die vorbeugende Bekämpfung ausschließt; gleichwohl bemängelte Karlsruhe die fehlende Methoden‑Determinierung, was den Eingriff nicht ausreichend minderte.[24]
Verfassungsdogmatisch erlangt damit die gesetzestechnische Präzision verfassungsrechtliche Relevanz: Je klarer der Gesetzgeber Datenarten, Ziel‑gruppen, Analysewege und Löschfristen definiert, desto geringer das Eigengewicht, desto niedriger die Eingriffsschwelle. Bäcker spricht insoweit von einer "verfassungsrechtlichen Prägung des Vorfeldrechts", die die klassische Gefahrdogmatik durch Wahrscheinlichkeitsurteile ersetzt und damit das polizeiliche Handlungskonzept verfeinert.[25]
Zur praktischen Eingriffsreduktion verweist das BVerfG auf Privacy‑by‑Design‑Pflichten (§ 71 BDSG), die bereits in der Planungsphase den Stand der Technik und den Verarbeitungszweck berücksichtigen müssen.[26] Entsprechende Vorgaben schließen algorithmische Black‑Box‑Praktiken aus und fördern transparente Parameter‑Sets, deren Nachvollziehbarkeit wiederum Eingang in die Verhältnismäßigkeitsprüfung findet.[27]
Der AI Act ergänzt dieses gestufte Modell unionsrechtlich, indem er individuelle "predictive" Risikobewertungen als verbotene KI‑Praxis einstuft, während raum‑ oder ereignisbezogene Prognosen als Hochrisiko‑Systeme einer strikten Konformitätsbewertung unterfallen.[28] Damit verflechten sich nationale Eingriffsschwellen mit unionsrechtlichen Risikokategorien: Ein als Hochrisiko eingestuftes Analyse‑Tool löst bereits präventiv technische und organisatorische Mindeststandards aus, die das verfassungsrechtliche Gewicht mindern können.
Verhältnismäßigkeit fungiert bei algorithmischen Analysen als skalierbarer Prüfungsrahmen: Je intensiver Datenvielfalt und Analysemacht, desto höher die Eingriffshürden; umgekehrt kann eine präzise normierte, technisch abgesicherte Auswertung das Eigengewicht reduzieren und damit geringere Gefahrenschwellen legitimieren. Der Gesetzgeber erhält so einen klaren Handlungsauftrag, durch Data‑Minimisation, Methodenkataloge und externe Audits das verfassungsrechtliche Gleichgewicht zwischen effektiver Gefahrenvorsorge und Grundrechtsschutz herzustellen.
Die verfassungsrechtliche Matrix des Sicherheitsrechts wird maßgeblich durch die Kompetenzordnung des Grundgesetzes bestimmt. Art. 70 I GG verortet die Gefahrenabwehr – mithin das allgemeine Polizeirecht – bei den Ländern, während Art. 74 I Nr. 1 GG dem Bund die konkurrierende Gesetzgebung für das Strafverfahrensrecht zuweist. Daraus folgt eine funktionale Doppelrolle der Polizei: Präventive Eingriffe unterliegen dem Landespolizeirecht, repressive Maßnahmen den bundesrechtlichen Normen der Strafprozessordnung (StPO). Diese duale Struktur führt, wie Möstl prägnant bemerkt, zu "zwei sehr unterschiedlichen Rechtsregimen", die in der praktischen Polizeiarbeit jedoch häufig ineinandergreifen.[29]
Gerade automatisierte Datenanalysen sprengen die klassische Systemtrennung, weil dieselben Datenbestände und Algorithmen sowohl für Gefahrenprognosen als auch zur Ermittlungsunterstützung genutzt werden können. Momsen spricht von einer "Verpolizeilichung strafprozessualer Garantien", wenn präventiv erhobene Daten quasi nahtlos in repressive Verdachtsermittlungen übergehen.[30] Das Bundesverfassungsgericht mahnt daher, dass Zweckbindung und Rechtsgrundlagenklarheit kompetenziell gespiegelt werden müssen: Was im Vorfeldrecht zulässig ist, darf nicht ohne explizite bundesgesetzliche Ermächtigung in das Ermittlungsverfahren diffundieren.[31]
Kompetenzrechtlich problematisch ist insbesondere die vorbeugende Bekämpfung von Straftaten. Während die pure Verhütung künftiger Delikte noch als Gefahrenabwehr in Landeszuständigkeit fällt, qualifiziert Karlsruhe die Vorsorge für spätere Strafverfolgung als Teil des gerichtlichen Verfahrens und damit als Bundeskompetenz.[32] Landesnormen, die Analyse‑Tools explizit für "Verfolgungsvorsorge" zulassen, riskieren somit Kompetenzüberschreitungen. Bäcker zeigt, dass viele Polizeigesetze dieses Spannungsfeld nur unzureichend adressieren und sich auf formelhafte Generalklauseln verlassen.[33]
Das Hessische Sicherheits‑ und Ordnungsgesetz (§ 25a HSOG) illustriert die Problematik: Es erlaubt Datenanalysen nicht nur zur Abwehr konkretisierter Gefahren, sondern auch zur "vorbeugenden Bekämpfung" schwerer Straftaten – eine Formulierung, die das BVerfG als kompetenzsensitiv bezeichnet und einer strengen verfassungsrechtlichen Kontrolle unterwirft .[34] In der Entscheidung Hessendata untersagte das Gericht eine solche Weite, weil sie faktisch strafprozessuale Zwecke verfolgt, ohne auf bundesrechtliche Garantien wie richterliche Anordnung oder Beschuldigtenrechte zurückzugreifen.[35]
Der Gesetzgeber muss die Systemkohärenz durch zwei korrespondierende Schritte sichern: (1) Präzise landesrechtliche Eingriffstatbestände, die ausschließlich präventive Ziele adressieren und klare Zweck‑, Daten‑ und Methodengrenzen vorsehen; (2) eine modernisierte
StPO‑Regelung für KI‑gestützte Analysen mit typisch repressiven Zielsetzungen, flankiert von verfahrensrechtlichen Schutzmechanismen (richterlicher Vorbehalt, Protokollierung, Verteidigungsrechte). Nur ein solches zweistufiges Modell wahrt sowohl die föderale Kompetenzordnung als auch den verfassungsrechtlichen Grundrechtsschutz.
Die gegenwärtig bedeutendsten spezialgesetzlichen Befugnisse zur automatisierten Datenanalyse im Gefahrenabwehrrecht finden sich in § 25a HSOG (Hessen) und § 49 HmbPolDVG (Hamburg). Beide Normen wurden 2018 eingeführt, um angesichts neuer technischer Möglichkeiten – namentlich der Analyseplattform Gotham von Palantir – eine rechtliche Grundlage für die vernetzte Auswertung heterogener Polizeidatenbestände zu schaffen.[36]
§ 25a HSOG erlaubt den Polizeibehörden, rechtmäßig gespeicherte personenbezogene Daten "auf einer Analyseplattform automatisiert zusammenzuführen" und sie anschließend zu "verknüpfen, aufbereiten und auszuwerten" (§ 25a Abs. 1 S. 1 HSOG). Die Norm bestimmt drei Anwendungszwecke, die jeweils eigene Eingriffsschwellen definieren: (1) Abwehr konkreter Gefahren für hochrangige Rechtsgüter; (2) Verhinderung konkretisierter, ihrer Art nach bestimmter Straftaten innerhalb eines übersehbaren Zeitraums; (3) "vorbeugende Bekämpfung" schwerer oder besonders schwerer Straftaten (§ 25a Abs. 2 Nr. 1–3 HSOG). Eine vergleichbare Dreistufung enthält § 49 Abs. 1 HmbPolDVG, der Wortlaut und Systematik weitgehend übernimmt, jedoch landesrechtlich angepasste Begrifflichkeiten nutzt.[37]
§ 25a Abs. 2 S. 4 HSOG listet exemplarisch die zulässigen Datenquellen – etwa Vorgangs‑, Fall‑, Verkehrs- und Telekommunikationsdaten – und gestattet ergänzend die Einbeziehung gezielt abgefragter Register‑ sowie Internetdaten. Gleichwohl werden Verkehrs‑ und Telekommunikationsdaten bei Maßnahmen nach Nr. 3 explizit ausgenommen, um den eingriffsspezifischen Charakter der vorbeugenden Straftatenbekämpfung abzumildern.[38] In Hamburg verweist § 49 Abs. 1 S. 5 HmbPolDVG stattdessen auf eine Rechtsverordnung, was dem Verordnungsgeber einen erweiterten Spielraum zur Bestimmung von Datenarten und Analyseverfahren einräumt – ein Spielraum, den Karlsruhe später als verfassungsrechtlich defizitär qualifizierte.
Beide Normen betonen den anlassbezogenen, manuell ausgelösten Charakter der Analyse und verlangen ein Rollen‑ und Rechtekonzept, das durch Verwaltungsvorschriften zu veröffentlichen ist (§ 25a Abs. 3 HSOG). Zudem schreiben sie Protokollierungs‑ und Löschpflichten vor (§ 25a Abs. 4 HSOG; § 49 Abs. 3 HmbPolDVG). Diese Vorkehrungen sollen sicherstellen, dass die Nutzung der Analyseplattform dokumentiert und nachträglich überprüfbar bleibt.
Trotz dieser formalen Sicherungen ließen die ursprünglichen Fassungen entscheidende Bestimmtheits‑ und Transparenzdefizite erkennen. Weder wurden die zugelassenen Verarbeitungsmethoden (z. B. Clustering, Graph‑Analytics, Machine‑Learning‑Algorithmen) normenklar festgelegt, noch enthielt der Gesetzgeber quantitative Beschränkungen des Datenumfangs. Dadurch blieb das Eigengewicht des Eingriffs ungedrosselt, was das Bundesverfassungsgericht als unverhältnismäßig beanstandete.[39] Insbesondere die Kategorie der "vorbeugenden Bekämpfung" schwerer Straftaten wurde als kompetenzrechtlich heikel eingestuft, weil sie faktisch eine strafprozessuale Verfolgungsvorsorge darstellt und damit in den Kompetenzbereich des Bundes nach Art. 74 I Nr. 1 GG eingreift.[40]
§ 25a HSOG und § 49 HmbPolDVG bilden den normativen Referenzrahmen für Big‑Data‑Analysen im Gefahrenabwehrrecht, weisen aber in ihrer ursprünglichen Ausgestaltung gravierende verfassungs‑ und kompetenzrechtliche Lücken auf. Diese Defizite erklären den strengen Prüfungsmaßstab des BVerfG und markieren den Ausgangspunkt für die folgende dogmatische Analyse der verfassungsgerichtlichen Kontrolle und des daraus resultierenden legislativen Nachbesserungsbedarfs.
Die zentralen Weichen für den künftigen Umgang mit Big‑Data‑Analysen im Polizeirecht hat das Bundesverfassungsgericht (BVerfG) in seinem Urteil vom 16. Februar 2023 gestellt. Ausgehend von den nahezu wortgleichen Befugnissen in § 25a HSOG und § 49 HmbPolDVG qualifiziert das Gericht die automatisierte Datenanalyse als eigenständigen Grundrechtseingriff, der nicht im Schutzniveau der Primärdatenerhebung aufgeht.[41] Dieses "Eigengewicht" resultiert aus der spezifischen Wissensgenerierung durch algorithmische Verknüpfungen vormals getrennter Bestände und verlangt daher eine gesonderte rechtliche Rechtfertigung.
Das BVerfG entwickelt ein zweistufiges Prüfmodell: Zum einen bleibt der Eingriff an die Zweckbindung der ursprünglichen Datenerhebung gekoppelt; zum anderen entstehen weitergehende Rechtfertigungsanforderungen, deren Intensität sich nach Art, Umfang und Analysemethode bemisst.[42] Der Gesetzgeber muss folglich durch normklare Kataloge zu Datenarten und Auswertungstechniken selbst
steuern, wie schwer der Eingriff wiegt – eine bloße Delegation an Verwaltungsvorschriften reicht nicht.
Ermöglicht die Plattform – wie bei hessenDATA – den Zugriff auf heterogene Register‑, Verkehrs‑ und Telekommunikationsdaten mittels KI‑gestützter Mustererkennung, sieht das Gericht darin einen schwerwiegenden Eingriff, der nur bei hinreichend konkretisierter Gefahr für besonders gewichtige Rechtsgüter zulässig ist.[43] Diese Schwelle gleicht den Voraussetzungen klassischer verdeckter Überwachungsmaßnahmen (§§ 100a ff. StPO).
Zugleich eröffnet Karlsruhe einen flexibilisierenden Korridor: Werden Datenumfang und Analysemethoden gesetzlich eng gefasst – etwa durch Ausschluss sensibler Kategorien oder durch Beschränkung auf statistische Cluster‑Analysen – darf die Eingriffsschwelle auf die abstrakte Gefahr abgesenkt werden.[44] Die ursprünglichen Landesregelungen verfehlten diese Entlastung, weil sie weder Obergrenzen für die Datenfusion noch ein Methodeninventar vorsahen.[45]
Neben materiellen Begrenzungen verlangt das Gericht umfassende Protokollierungs‑, Dokumentations‑ und Löschkonzepte. Diese sollen externen Aufsichtsinstanzen die Überprüfbarkeit der rechtmäßigen Nutzung ermöglichen und Betroffenen effektiven Rechtsschutz nach Art. 19 IV GG sichern.[46]
Besonders kritisch bewertet Karlsruhe die Tatbestandsvariante der "vorbeugenden Bekämpfung" schwerer Straftaten: Sie betone strafverfolgungsbezogene Zwecke und falle damit in die konkurrierende Gesetzgebung des Bundes nach Art. 74 I Nr. 1 GG, sodass eine landesrechtliche Regelung hier kompetenzwidrig sei.[47]
Das Urteil erklärt die angegriffenen Normen für unverhältnismäßig, lässt ihre Fortgeltung jedoch befristet zu, um Rechts‑ und Funktionslücken zu vermeiden. Landesparlamente müssen nun Daten‑ und Methodenkataloge nachschärfen, Eingriffsschwellen differenziert festlegen und unabhängige Audit‑Strukturen implementieren. Parallel wird der Bundesgesetzgeber aufgerufen, für strafprozessuale Analysen ein eigenes, grundrechtsadäquates Rahmenwerk zu schaffen.
Die verfassungsgerichtliche Kontrolle transformiert automatisierte Datenanalysen von einem technischen in ein streng grundrechtsgebundenes Instrument. Künftige Regelungen dürfen die algorithmische Komplexität nicht in Generalklauseln verstecken, sondern müssen sie transparent, methoden‑ und datenkonkret normieren, um das verfassungsrechtliche Gleichgewicht zwischen Sicherheit und Freiheit zu wahren.
Die Tatbestandsvariante Nr. 3 des § 25a Abs. 2 HSOG und des § 49 Abs. 1 HmbPolDVG erlaubt der Polizei, automatisierte Datenanalysen auch dann einzusetzen, wenn lediglich "tatsächliche Anhaltspunkte" für die vorbeugende Bekämpfung schwerer oder besonders schwerer Straftaten vorliegen. Diese Formulierung verknüpft zwei Problemfelder: (a) eine besonders weite Eingriffsschwelle, die unterhalb der konkretisierten Gefahr angesiedelt ist, und (b) einen kompetenziellen Grenzbereich zwischen präventivem Gefahrenabwehrrecht der Länder und der – dem Bund vorbehaltenen – Vorsorge für die Strafverfolgung.
Das Bundesverfassungsgericht hat die Variante Nr. 3 als "besonders schwerwiegenden Eingriff" qualifiziert, weil sie Massendatenanalysen bei lediglich bisherigen Verdachtsmomenten gestattet.[48] Anders als bei konkreter oder konkretisierter Gefahr fehlt es hier an einem hinreichend bestimmten Gefahrenbezug; zugleich eröffnet die Norm Zugriff auf heterogene Datenquellen, die – etwa bei Einbeziehung von Verkehrs‑ oder Telekommunikationsdaten – eine tiefgreifende Persönlichkeitsprofilierung ermöglichen. Das Gericht verlangt deshalb, dass der Gesetzgeber entweder (1) das Daten‑ und Methodenspektrum drastisch verengt oder (2) eine Eingriffsschwelle ansetzt, die den verdeckten Maßnahmen der StPO (§§ 100a ff.) entspricht.[49]
Die "vorbeugende Bekämpfung" adressiert nicht mehr nur die Abwehr zukünftiger Schäden, sondern die Sicherung von Beweismitteln für künftige Strafverfahren. Nach ständiger Rechtsprechung gehört diese Verfolgungsvorsorge in den Kompetenzbereich des Bundes (Art. 74 I Nr. 1 GG) – nicht zu den Ländern.[50] Landesregelungen verstoßen daher gegen die Kompetenzordnung, wenn sie ohne bundesgesetzliche Rückbindung analytische Befugnisse für strafprozessuale Zwecke eröffnen. Bäcker sieht hierin einen "strategischen Überwachungsansatz", der das präventive Vorfeldrecht funktional in das strafprozessuale Ermittlungsregime verschiebt.[51]
Dogmatisch kollidiert die Vorfeld‑Eingriffsschwelle mit den klassischen Gefahrbegriffen. Während konkrete oder zumindest ihrer Art nach bestimmte Schadenseintritte als legitimer Schlüssel für polizeiliches Handeln gelten, basiert die Vorbeugung schwerer Straftaten häufig auf statistischen oder personenbezogenen Risikoprofilen. Kulick
warnt vor einer "Personalisierung des Gefahrenabwehrrechts", bei der Prävention über das Zuschreiben individueller Gefährlichkeit erfolgt und so den situativen Bezug verliert.[52] Solche Profilierungen bergen zudem Diskriminierungsrisiken, die Steege als strukturelles Problem algorithmischer Systeme identifiziert.[53]
Das BVerfG akzeptiert den präventiven Zugriff nur, wenn der Gesetzgeber durch qualitative Beschränkungen (Ausschluss sensibler Daten, limitierte Analyseverfahren) das Eigengewicht des Eingriffs reduziert oder die Maßnahme auf hinreichend konkrete Gefahrenlagen begrenzt. Andernfalls muss eine Eingriffsschwelle greifen, die dem repressiven Instrumentarium entspricht – richterlicher Vorbehalt, Benachrichtigungspflichten und strenge Dokumentation eingeschlossen.[54]
Die Variante "vorbeugende Bekämpfung" verfehlt derzeit sowohl den verfassungsrechtlichen Verhältnismäßigkeitsmaßstab als auch die Bund‑Länder‑Kompetenzordnung. Eine verfassungskonforme Ausgestaltung erfordert, den Daten‑ und Methodenkatalog eng zu ziehen, die Maßnahme klar präventiv zu verankern oder sie – bei strafprozessualer Zielrichtung – in ein bundesrechtliches Regime einzubetten, das die Schutzstandards der StPO gewährleistet.
Das Bundesverfassungsgericht hat die Landesgesetzgeber nicht nur zur punktuellen Nachbesserung einzelner Vorschriften verpflichtet. Vielmehr formuliert es einen umfassenden Regelungsauftrag, der in drei Dimensionen wirkt: (a) materielle Begrenzung von Daten und Methoden, (b) prozedurale Sicherung durch Transparenz‑ und Kontrollinstrumente sowie (c) kompetenzielle Entflechtung zwischen Prävention und Strafverfolgung.
Karlsruhe erwartet, dass der Gesetzgeber selbst die "wesentlichen Maßstäbe" bestimmt, um das Eigengewicht der automatisierten Analyse zu steuern.[55] Dazu gehört ein positiver Katalog zulässiger Datenarten mit klaren Ausschlüssen besonders sensibler Kategorien (etwa Verkehrs‑ und Telekommunikationsdaten bei nur abstrakter Gefahrenlage). Parallel muss ein Methodeninventar festgelegt werden: Welche Analyseformen – statisches Clustering, Graph‑Analytics, Machine‑Learning – sind in welchem Zweck‑ und Gefahrenkontext erlaubt? Blankettverweise auf Verwaltungsvorschriften genügen nicht; sie unterlaufen das Parlamentsvorbehaltsprinzip.[56]
Die materiellen Grenzen müssen durch technisch‑organisatorische Vorkehrungen flankiert werden: § 71 BDSG verpflichtet Verantwortliche, bereits in der Planungsphase den Stand der Technik, Umfang, Umstände und Zwecke der Verarbeitung zu berücksichtigen und angemessene Schutzmaßnahmen zu implementieren.[57] Hinzu tritt die Forderung nach Nachvollziehbarkeit: Algorithmen sind so zu dokumentieren, dass unabhängige Stellen ihre Funktionslogik prüfen können; andernfalls droht ein Konflikt mit Art. 47 GRCh und dem Recht auf effektiven Rechtsschutz.[58] Hierzu empfiehlt das Gericht u. a. umfassende Protokollierungs‑ und Löschkonzepte, regelmäßige Audits sowie Publikationspflichten für Einsatz‑ und Fehlerstatistiken.[59]
Spätestens bei der Variante der "vorbeugenden Bekämpfung" schwerer Straftaten stößt das Landesrecht an Bundeskompetenzgrenzen (Art. 74 I Nr. 1 GG). Trurnit weist darauf hin, dass der Bund für jede Form der Verfolgungsvorsorge originär zuständig ist; Landesnormen müssen hier zurücktreten oder sich strikt auf Gefahrenabwehr beschränken.[60] Der Gesetzgeber hat also zwei Optionen: Entweder er engführt präventive Befugnisse auf echte Gefahrenabwehr oder er schafft auf Bundesebene ein strafprozessuales Analyse‑Regime mit richterlichem Vorbehalt und Beschuldigtenrechten.
Schließlich zwingt der AI Act zu einer kontinuierlichen Anpassung. Individuelles "predictive profiling" ist künftig unionsweit untersagt; raum‑ oder ereignisbezogene Prognosen gelten als Hochrisiko‑Systeme und unterliegen einer Konformitätsbewertung.[61] Nationale Gesetze müssen daher risikobasierte Prüf‑ und Genehmigungsverfahren integrieren, um einen Gleichlauf zwischen Verfassungs‑ und Unionsrecht zu garantieren.
Der verfassungsgerichtliche Regelungsauftrag verlangt einen mehrschichtigen Normenrahmen, der Daten‑ und Methodenkataloge, Technik‑ und Transparenzpflichten, unabhängige Kontrolle und eine klare Kompetenztrennung systematisch verknüpft. Ohne diese konsistente Gesamtkonzeption bleiben Big‑Data‑Analysen ein verfassungsrechtliches Hochrisiko – mit dem legislativen Pflichtenheft ist nun der Gesetzgeber am Zug.
Predictive‑Policing‑Software lässt sich in drei wesentliche Architekturtypen gliedern, die sich hinsichtlich Datenquellen, Prognoseeinheit und algorithmischer Komplexität unterscheiden. Erstens repräsentiert PreCobs den klassischen near‑repeat-Ansatz: Basis sind historische Falldaten zu Delikten wie Wohnungs‑ und Kfz‑Einbrüchen. Ein heuristischer Algorithmus markiert Raum‑Zeit‑Cluster, in denen Einbrüche kurz hintereinander auftreten; die Anwendung bleibt dabei auf strukturierte Kriminalstatistik beschränkt und nutzt keine personenbezogenen Attribute. Durch die Konzentration auf Orts‑ und Zeitfaktoren gilt PreCobs als vergleichsweise "einfache" Vorhersagesoftware ohne Machine‑Learning‑Elemente. Wischmeyer vermerkt, dass solche Systeme zwar polizeiliche Ressourcen effizienter allokieren, empirisch aber nur moderate Reduktionsraten bei Einbruchserien belegen konnten.[62]
Das SKALA‑System (NRW) erweitert dieses Raster, indem es neben Falldaten soziale Struktur‑ und Infrastrukturdaten einbezieht – etwa Bevölkerungsdichte, Beleuchtung, ÖPNV-Haltepunkte. Der Algorithmus kombiniert kriminologische Theorien (Routine‑Activity, Crime Pattern) mit regressionsbasierten Gewichtungen, um Risikoscores für urbane Rasterzellen zu generieren. Im Vergleich zu PreCobs steigt hier die Datenvielfalt; gleichwohl bleiben personenbezogene Merkmale ausgeschlossen, was die Eingriffsintensität relativ begrenzt. Allerdings zeigen Pilotevaluierungen ein Bias‑Risiko gegenüber sozial benachteiligten Quartieren, weil sozioökonomische Indikatoren als Risikosurrogate fungieren können.[63]
Einen qualitativen Sprung markiert Gotham von Palantir, das in Hessen als hessenDATA eingesetzt wird. Gotham betreibt eine Graph‑Analytics‑Plattform, die heterogene Daten‐Silostrukturen – Polizeiregister, Telekommunikations‑, Verkehrs‑, Meldedaten, offene Quellen – in einem hochvernetzten Knowledge‑Graph zusammenführt.[64] Auf dieser Basis laufen multiple Analyse‑Module: entity resolution, community detection, Link‑Prediction und Machine-Learning-Klassifizierer. Das System weist damit ein deutlich höheres algorithmisches Eigengewicht auf, weil es nicht nur Hotspots, sondern individuelle Netzwerke und Rollen ("Facilitator", "Leader") identifiziert. Wischmeyer spricht hier von einer "Gefahrverdachtserkennung" im Sinne eines funktionalen Äquivalents polizeilicher Expertise.[65]
Die Eingriffstiefe skaliert parallel zur Daten- und Methodenkomplexität: Während PreCobs überwiegend raumbezogene Prognosen liefert, ermöglicht Gotham eine personenbezogene Profilerstellung ‑ ein Szenario, das der AI Act künftig als verbotene Praxis einstuft, sofern es auf individuelle Risikobewertungen abzielt.[66] Steege warnt zudem vor algorithmischer Diskriminierung, da Trainingsdaten gesellschaftliche Vorurteile replizieren und Minoritäten überproportional als Risikoträger ausweisen können.[67]
Aus praktischer Perspektive unterscheiden sich auch Governance‑Modelle: PreCobs wird lokal auf Dienststellenebene betrieben; SKALA zentral in Düsseldorf; Gotham in einer landesweiten Cloud‑Instanz mit rollenbasierten Zugriffsrechten (§ 25a Abs. 3 HSOG). Jede Stufe erhöht den Bedarf an Datenschutz‑, Audit‑ und Explainability‑Vorkehrungen. Hornung betont, dass bei Deep‑Learning‑basierten Graph‑Analysen eine externe Nachvollziehbarkeit zwingend sei, da sonst Art. 47 GRCh verletzt werde.[68]
Die technischen Modelle reichen von statistikbasierten Hotspot‑Tools bis zu komplexen Netzwerkanalysen. Mit jeder Aufrüstung steigen sowohl prognostischer Nutzen als auch verfassungsrechtliche Risiken. Künftige Gesetzgebung muss daher differenziert nach Datenumfang, Prognosegranularität und Algorithmustransparenz regulieren, um ein verantwortbares Verhältnis zwischen Effektivität und Grundrechtsschutz herzustellen.
Vorfeldermächtigungen markieren das juristische Scharnier zwischen klassischer Gefahrenabwehr und kriminalpräventiver Vorausschau. Bäcker unterscheidet drei Leittypen, die jeweils unterschiedliche Eingriffsvoraussetzungen und damit verfassungsrechtliche Prüfungsintensitäten auslösen: (a) Wahrscheinlichkeitsurteile erster Stufe, (b) Wahrscheinlichkeitsurteile zweiter Stufe und (c) strategische Überwachungsaufträge.[69]
Erste‑Stufe‑Tatbestände beruhen auf der Annahme, dass sich ein gefährliches Ereignis mit erheblicher Wahrscheinlichkeit verwirklichen wird, ohne dass Ort, Zeit oder Täter feststehen müssen. Sie verlagern die Eingriffsschwelle gegenüber der konkreten Gefahr leicht nach vorn, bleiben jedoch situativ gebunden und erfordern ein konkretes Gefahrenverdachtsmoment. Das Bundesverfassungsgericht akzeptiert solche Befugnisse, sofern sie auf hochrangige Rechtsgüter beschränkt und durch daten‑ und methodenspezifische Vorgaben eingehegt sind.[70]
Zweite‑Stufe‑Tatbestände gehen einen Schritt weiter. Sie erlauben Maßnahmen bereits dann, wenn "tatsächliche Anhaltspunkte" für künftige schwere Straftaten bestehen, ohne dass diese hinsichtlich Art oder Zeitraum konkretisiert sind. Karlsruhe qualifiziert diesen Typus als erheblich eingriffsintensiv, weil er faktisch auf abstrakte Gefahrengeneralisierungen abstellt und so personenbezogene
Risikoprofile begünstigt.[71] Dementsprechend fordert das Gericht hohe Eingriffshürden – regelmäßig die hinreichend konkretisierte Gefahr – oder eine drastische Eingrenzung von Datenquellen und Analyseverfahren, um das eigenständige Belastungsgewicht zu reduzieren.
Strategische Überwachungsaufträge – etwa die Variante "vorbeugende Bekämpfung" schwerer Straftaten in § 25a Abs. 2 Nr. 3 HSOG – weisen einen repressiven Kern auf und zielen auf Beweissicherung für spätere Strafverfahren. Bäcker ordnet diese Kategorie als Verfolgungsvorsorge ein, die kompetenziell dem Bund zugewiesen ist und deshalb nur bundesgesetzlich geregelt werden darf.[72] Trurnit bestätigt, dass Landesbefugnisse zur Verfolgungsvorsorge gegen Art. 74 I Nr. 1 GG verstoßen, sofern der Bund das Feld durch die StPO bereits abschließend geregelt hat.[73]
Die verfassungsrechtliche Typisierung bewirkt eine gestufte Kontrolllogik: Je weiter die Eingriffsschwelle vom klassischen Gefahrbegriff entfernt ist und je abstrakter das Risikoszenario gefasst wird, desto enger müssen Daten‑ und Methodenkatalog, Transparenzpflichten und nachträgliche Kontrollmechanismen gefasst sein. Möstl betont, dass nur so das Gleichgewicht zwischen der doppelten Polizeirolle – präventiv und repressiv – und der föderalen Kompetenzordnung gewahrt bleibt.[74] Zudem sind Diskriminierungsrisiken umso größer, je stärker personenbezogene Profile ins Zentrum rücken; Steege verweist darauf, dass gerade in den Vorfeldkategorien algorithmische Verzerrungen gravierende Gleichheitsverletzungen auslösen können.[75]
Die verfassungsrechtliche Typisierung zwingt den Gesetzgeber, Vorfeldermächtigungen präzise zu unterscheiden und abgestufte Schutzregime zu etablieren. Während Wahrscheinlichkeitsurteile erster Stufe bei flankierenden Datengrenzen verfassungsfähig sind, erfordern zweite Stufe und strategische Überwachung entweder hohe Gefahrenschwellen oder eine bundesgesetzliche Verortung. Ohne diese Differenzierung drohen strukturelle Grundrechtsverletzungen und Kompetenzüberschreitungen.
Die technische Potenz von Predictive‑Policing‑Systemen steht im Schatten eines system‑immanenten Bias‑Risikos, das sowohl statistische Verzerrungen im Trainingsdatensatz als auch algorithmische Verstärkereffekte umfasst. Steege dokumentiert anhand der US‑Software COMPAS, wie vermeintlich objektive Risikoscores Schwarze Beschuldigte systematisch mit höheren Rückfallwahrscheinlichkeiten bewerten, während Weiße bei vergleichbaren Delikten milder eingestuft werden.[76] Die Ursache liegt in historisch vorgeprägten Datensätzen: Wenn Polizeiarbeit in bestimmten Vierteln über Jahrzehnte intensiver war, bildet das Training‑Dataset diese Über‑Policing‑Struktur ab und reproduziert sie mathematisch – ein klassischer feedback loop.
Auch in Deutschland droht diese Gefahr. Kulick warnt vor der "Personalisierung des Gefahrenabwehrrechts", in der Personen weniger auf Grundlage konkreter Situationen, sondern verstärkt nach statistischen Risikokategorien adressiert werden.[77] Bei Algorithmen wie Gotham, die Heterogene Register‑, Verkehrs‑ und Open‑Source‑Daten verknüpfen, entstehen hochauflösende Profile, die sozio‑ökonomische Surrogatvariablen (Wohnort, Mobilitätsmuster) als Proxys für Kriminalitätsneigung nutzen können. Werden diese Variablen nicht sorgfältig kontrolliert, resultiert indirekte Diskriminierung – ein Verstoß gegen Art. 3 GG und Art. 21 GRCh.
Der AI Act adressiert das Problem durch ein doppeltes Regulierungsregime: Individuelle Risikobewertungen zur Vorhersage künftiger Straftaten sind per Art. 5 Abs. 1 lit. d verboten, während raum‑ oder ereignisbezogene Prognosen als Hochrisiko‑Systeme strengen Transparenz‑ und Bias‑Test‑Pflichten unterliegen.[78] Für nationale Gesetzgeber folgt daraus die Pflicht, algorithmische Werkzeuge vor ihrem produktiven Einsatz einem Diskriminierungs‑Impact‑Assessment zu unterziehen, das Trainingsdaten, Feature‑Engineering und Modell‑Output systematisch auf Proxies untersucht.
Golla zeigt, dass bereits die Zusammenführung vormals getrennter Datenbestände – etwa in Antiterrordateien – neue Diskriminierungsrisiken erzeugen kann, wenn die Verknüpfungslogik auf heuristischen Verdachtsmomenten basiert.[79] Solche Heuristiken präjudizieren unter Umständen ganze Gruppen ("Gefährder") und verschieben die polizeiliche Aufmerksamkeit selektiv. Die daraus entstehende self‑fulfilling prophecy erhöht die Trefferwahrscheinlichkeit in ohnehin stark überwachten Milieus und verfestigt das statistische Bias.
Aus rechtsdogmatischer Sicht zwingt Art. 3 GG den Gesetzgeber, objektive Rechtfertigungen für jede Ungleichbehandlung vorzulegen. Da algorithmische Modelle jedoch häufig black boxes sind, macht Hornung geltend, dass fehlende Explainability de facto die Nachweispflicht des Staates unterläuft und Betroffene in ihrem Recht auf effektiven Rechtsschutz (Art. 19 IV GG; Art. 47 GRCh) beschneidet.[80]
Erstens verlangt das BVerfG normative Methodenkataloge, um Daten‑ und Modellwahl parlamentarisch zu binden. Zweitens müssen regelmäßige Audits – idealerweise von unabhängigen, technisch versierten Stellen – Evaluationskennzahlen wie false‑positive‑Rate parity oder equal
opportunity überwachen. Drittens sollte ein Gegen‑Bias‑Mechanismus gesetzlich vorgeschrieben werden, etwa durch Kalibrierung auf repräsentative Bevölkerungsmodelle oder den Zwang, sensible Attribute aus dem Feature‑space zu entfernen, sofern sie nicht strikt erforderlich sind.
Diskriminierungs‑ und Bias‑Risiken sind kein Randphänomen, sondern ein strukturelles Problem datengetriebener Polizeiarbeit. Ohne explizite, gesetzlich verankerte Bias‑Tests, Transparenzpflichten und wirksame Kontrollstrukturen bleiben Predictive‑Policing‑Systeme verfassungsrechtlich hochriskant – und können das Vertrauen in eine faire, rechtsstaatliche Sicherheitsarchitektur nachhaltig beschädigen.
Die Legitimation algorithmischer Gefahrenprognosen steht und fällt mit ihrer Nachvollziehbarkeit. Im klassischen Polizeirecht wird jede Eingriffshandlung in Form und Begründung aktenkundig, sodass Gerichte und Betroffene sie überprüfen können. Bei KI‑gestützten Analysesystemen droht jedoch eine "Black‑Box‑Asymmetrie": komplexe Deep‑Learning‑Modelle generieren Risikoscores, ohne dass Anwenderinnen und Anwender die zugrunde liegenden Merkmale oder Gewichtungen erkennen. Hornung identifiziert hierin eine Gefährdung des Rechtsstaatsprinzips, weil fehlende Nachvollziehbarkeit effektiven Rechtsschutz nach Art. 19 IV GG und Art. 47 GRCh vereitelt.[81]
Das Bundesverfassungsgericht greift diese Sorge auf und verlangt gesetzlich verankerte Dokumentations‑ und Protokollierungspflichten. Jede automatisierte Datenanalyse muss so gestaltet sein, dass ein "rekonstruktiver Blick" auf die Datenwege, Parameter und Entscheidungsschritte möglich bleibt; andernfalls sei weder eine externe Fachaufsicht noch eine gerichtliche Kontrolle realisierbar.[82] Die Pflicht zur Protokollierung erstreckt sich auf (1) den Auslöser der Analyse, (2) die einbezogenen Datenkategorien, (3) die angewandten Algorithmen/Modelle, (4) das Ergebnis inkl. Score‑Interpretation und (5) etwaige manuelle Nachjustierungen.
Über die reine Rückverfolgbarkeit hinaus fordert Hornung ein Begründungsregime: Betroffene müssen in der Lage sein, die sie betreffenden automatisierten Entscheidungen inhaltlich nachzuvollziehen. Dies impliziert, dass die Polizei "aussagekräftige, möglichst laientaugliche" Erläuterungen zu den maßgeblichen Faktoren liefert.[83] Die Praxis kann hierfür auf Ansätze der Explainable AI zurückgreifen, etwa Feature-Importance‑Analysen oder lokale Surrogatmodelle, die bei jeder Abfrage automatisch zusammen mit dem Score gespeichert werden.
Auch der unionale Rechtsrahmen treibt die Transparenzpflicht voran. Der AI Act klassifiziert raum‑ und ereignisbezogene Prognosesysteme als Hochrisiko‑KI und verpflichtet Betreiber zu umfassender technischer Dokumentation, Logging, menschlicher Aufsicht und verständlicher Information für Nutzer*innen.[84] Für individuelle Risikobewertungen – etwa personalisierte Gefährder‑Scores – greift sogar das Nutzungsverbot des Art. 5 I lit. d, was zugleich jede intransparente Profilbildung untersagt.[85]
Datenschutzrechtlich wird Transparenz durch den Grundsatz Privacy by Design konkretisiert. § 71 BDSG verlangt, dass bereits in der Planungsphase technische Vorkehrungen geschaffen werden, um Datenverarbeitung zweck‑ und nutzerbezogen offenzulegen; dies umfasst explizit Protokollierungs‑ und Auskunftsfunktionen.[86]
Praktisch impliziert das Transparenzgebot drei Stufen:
Transparenz und Explainability sind keine "nice to have"-Features, sondern verfassungs‑ und unionsrechtliche Mindestanforderungen. Ohne lückenlose Protokollierung, nachvollziehbare Modell‑Erklärungen und unabhängige Audits bleibt der Einsatz von Predictive‑Policing‑Systemen rechtsstaatlich unvertretbar.
Die polizeiliche Praxis oszilliert zwischen präventiver Gefahrenabwehr und reaktiver Strafverfolgung. Dieses funktionale Doppelmandat ist verfassungsrechtlich akzeptiert, doch kollidiert mit der kompetenziellen Trennlinie des Grundgesetzes: Während das allgemeine Polizeirecht als Gefahrenabwehrrecht in die Gesetzgebungshoheit der Länder fällt (Art. 70 I GG), untersteht das Strafverfahrensrecht der konkurrierenden Kompetenz des Bundes (Art. 74 I Nr. 1 GG). Möstl beschreibt dieses Nebeneinander zweier "sehr unterschiedlicher Rechtsregime" als genuines Strukturmerkmal der deutschen Sicherheitsarchitektur und mahnt zugleich, dass faktische "Gemengelagen" häufig schwer aufzulösen seien.[87]
Gerade automatisierte Datenanalysen potenzieren die Vermischungsgefahr. Die verwendeten Datenpools – etwa
Register‑, Verkehrs‑ oder Telekommunikationsdaten – sind für präventive und repressive Zwecke gleichermaßen attraktiv; die Algorithmik bleibt identisch, lediglich der rechtliche Anknüpfungspunkt ändert sich. Momsen spricht in diesem Zusammenhang von einer "Verpolizeilichung strafprozessualer Garantien": Personen, die in präventivpolizeilichen Risikokategorien geführt werden, werden automatisch zu Verdächtigen, sobald ein passendes Delikt ermittelt wird, was die prozessualen Schutzrechte des Beschuldigten unterläuft.[88]
Das Bundesverfassungsgericht zieht hier eine klare Begrenzung. Es unterscheidet zwischen Gefahrenverhütung – präventiver Schutz vor zukünftigen Rechtsgutverletzungen – und Verfolgungsvorsorge, also Beweissicherung für spätere Strafverfahren. Letztere fällt kompetenziell in den Bund und erfordert daher eine explizite bundesgesetzliche Grundlage.[89] Landesnormen wie § 25a Abs. 2 Nr. 3 HSOG ("vorbeugende Bekämpfung" schwerer Straftaten) geraten so in Kompetenzkonflikt, weil sie faktisch Verfolgungsvorsorge ermöglichen, ohne die Strafprozessordnung zu beachten. Trurnit qualifiziert derartige Landesbefugnisse daher als kompetenzwidrig, sofern der Bund das Feld bereits durch die StPO abschließend geregelt hat.[90]
Dogmatisch divergieren zudem die Eingriffsschwellen beider Rechtsgebiete. Gefahrenabwehrrecht kennt die abstrakte oder konkretisierte Gefahr; die StPO setzt zumindest einen Anfangsverdacht voraus. Werden automatisierte Analysen im präventiven Vorfeld erlaubt, ohne dass ein hinreichender Tatverdacht vorliegt, entsteht ein Gefahrenverdacht‑Ermittlungsmodell, das prozessuale Garantien (richterlicher Vorbehalt, Beschuldigtenrechte, Anwesenheits‑ und Verteidigungsrechte) umgeht. Bäcker warnt vor einem "strategischen Überwachungsansatz", der das präventive Vorfeldrecht in ein Ermittlungsregime verlängert, ohne dessen rechtsstaatliche Sicherungen zu übernehmen.[91]
Erstens sollten Landespolizeigesetze ihre Befugnisse strikt auf Gefahrenabwehr begrenzen und jede Datenverarbeitung mit potenzieller Verfolgungsvorsorge an eine bundesrechtliche Rechtsgrundlage koppeln. Zweitens bedarf es einer modernisierten StPO‑Regelung für KI‑gestützte Analysen, die die klassischen Schutzmechanismen—richterlicher Vorbehalt, Dokumentationspflicht, Benachrichtigung—auf algorithmische Verfahren überträgt. Drittens muss ein Datentrennungskonzept implementiert werden: Daten, die auf Vorfeldmaßnahmen beruhen, dürfen erst nach Richterbeschluss in ein Strafverfahren einfließen, um die Zweckbindung zu wahren.[92]
Die Schnittstelle zwischen Gefahrenabwehr und Strafverfolgung ist verfassungsrechtlich hochsensibel. Automatisierte Datenanalysen verschärfen systemische Grenzverschiebungen. Eine verfassungsfeste Lösung erfordert klare Kompetenztrennungen, abgestufte Eingriffsschwellen und ein strenges Zweckbindungs‑ und Datentrennungskonzept, das präventive Risiken von repressiven Ermittlungen separiert.
Die europäische Datenschutzarchitektur differenziert seit 2016 strikt zwischen allgemeinen Datenverarbeitungen (Regime der Datenschutz‑Grundverordnung, DS‑GVO) und behördlichen Verarbeitungen zu Strafverfolgungs‑ oder Gefahrenabwehrzwecken (Richtlinie (EU) 2016/680, kurz: JI‑Richtlinie).[93] Während die DS‑GVO in Art. 2 II lit. d die Polizei‑ und Justizsphäre ausdrücklich ausklammert, kodifiziert die JI‑Richtlinie ein bereichsspezifisches Datenschutzrecht, das im deutschen Recht vor allem durch §§ 45 ff. BDSG umgesetzt wird.[94]
Die DS‑GVO verfolgt einen one size fits all‑Ansatz für Wirtschaft, Verwaltung und Zivilgesellschaft. Ihr Leitprinzip der Rechenschaftspflicht (Art. 5 II) verpflichtet Verantwortliche, sämtliche Schutzvorkehrungen selbst zu implementieren und nachzuweisen. Demgegenüber setzt die JI‑Richtlinie auf ein zweistufiges Compliance‑Modell: Sie kombiniert das allgemeine Datenschutzprinzipien‑Set (Rechtmäßigkeit, Zweckbindung, Datenminimierung etc.) mit sektorspezifischen Pflichten wie der Führung getrennter Protokolle oder der Dokumentation jeder Datenübermittlung.[95] Diese Doppelstruktur soll einerseits den Ermittlungs‑ und Gefahrenabwehrbelangen Rechnung tragen, andererseits ein Schutzniveau "im Einklang mit der Charta" gewährleisten.
Art. 8 JI‑Richtlinie statuiert eine abschließende Liste zulässiger Verarbeitungssituationen – u. a. für die Verhütung, Ermittlung oder Verfolgung von Straftaten – und verlangt zusätzliche nationale Rechtsgrundlagen mit hinreichend bestimmten Zweck‑, Daten‑ und Verfahrensangaben. Für Deutschland bedeutet dies: Landespolizeigesetze wie § 25a HSOG müssen nicht nur verfassungs‑, sondern unionsrechtliche Zweckbindungs‑ und Transparenzanforderungen erfüllen. Fehlt es, wie das BVerfG beanstandet hat, an normklaren Daten‑ oder Methodenkatalogen, ist nicht nur das Grundgesetz, sondern auch die JI‑Richtlinie verletzt.
Die DS‑GVO gewährt Betroffenen weitreichende Rechte (Auskunft, Löschung, Widerspruch), kann diese aber in Art. 23 stark einschränken. Die JI‑Richtlinie wählt den umgekehrten Weg: Sie erlaubt Einschränkungen nur so weit erforderlich und verhältnismäßig für konkrete Ermittlungszwecke und verlangt stets einen nachgelagerten Rechtsschutz. Damit wird das Recht auf gerichtliche Kontrolle (Art. 47 GRCh) in sicherheitsbehördlichen
Kontexten verstärkt – eine Forderung, die das BVerfG als Transparenz‑ und Protokollierungspflicht konkretisiert hat.[96]
§ 71 BDSG implementiert die Technikgestaltungspflicht der DS‑GVO; zugleich bildet er das Bindeglied zur JI‑Richtlinie, deren Art. 20 technische und organisatorische Schutzmaßnahmen fordert. Paal betont, dass Polizei‑IT‑Systeme bereits "im Design" rollenbasierte Zugriffskonzepte, Log‑Files und Audit‑Schnittstellen vorsehen müssen, um sowohl DS‑GVO‑ als auch JI‑Compliance sicherzustellen.[97]
Polizeiliche Big‑Data‑Analysen dürfen sich nicht allein auf landesrechtliche Ermächtigungen stützen. Sie benötigen ein duales Legitimationsfundament: verfassungsfeste Eingriffsnormen plus JI‑kompatible Datenschutzstandards. Im Ergebnis fungiert die JI‑Richtlinie als europäischer Mindestgarant; sie schließt Schutzlücken, die durch zu weite Zweck‑ oder Datenklauseln im nationalen Recht entstehen, und zwingt Gesetzgeber, spezifische, überprüfbare Rahmenbedingungen für automatisierte Datenanalysen zu schaffen.
Das Leitprinzip der Privacy by Design (PbD) verpflichtet Verantwortliche, Schutzmechanismen schon in der Systemarchitektur technischer Anwendungen zu verankern, statt sie erst im laufenden Betrieb aufzusetzen. § 71 BDSG konkretisiert diese Pflicht für Polizei‑ und Sicherheitsbehörden: Bei der Planung, Auswahl und Nutzung von IT‑Systemen sind "angemessene technische und organisatorische Maßnahmen" zu treffen, die den gesamten Verarbeitungszyklus – Erhebung, Speicherung, Analyse, Löschung – grundrechtskonform ausgestalten.[98]
§ 71 BDSG verweist zunächst auf die allgemeinen Datenschutzprinzipien der JI‑Richtlinie und überträgt sie auf den innerstaatlichen Vollzug.[99] Die Behörde muss eine Risikoanalyse durchführen, in der Art, Umfang, Umstände und Zwecke der geplanten Verarbeitung bewertet werden; daran knüpft der gesetzliche Auftrag, "geeignete Garantien" zu etablieren. Diese reichen von pseudo‑ bzw. anonymisierten Datenflüssen, rollenbasierten Zugriffsmodellen über Protokollierung bis zu frühzeitigen Audit‑Schnittstellen.
Das Bundesverfassungsgericht begreift PbD als funktionales Pendant zum Verhältnismäßigkeitsprinzip: Durch technische Minimierung lasse sich das "Eigengewicht" eines Eingriffs auf ein verfassungsgemäßes Maß reduzieren.[100] Wird z. B. eine Analyseplattform so konfiguriert, dass sensibles Material – Telekommunikations‑ oder Verkehrsdaten – auf einer niedrigeren Zugriffsebene verbleibt und nur nach Richterbeschluss freigeschaltet werden kann, sinkt das Eingriffsgewicht; entsprechend kann der Gesetzgeber eine niedrigere Gefahrenschwelle festlegen.
Für PreCobs und SKALA genügt oft ein Datenkapselungs‑Ansatz: die Speicherung anonymisierter Location‑Hashes und definierter Löschzyklen nach 90 Tagen. Bei hochkomplexen Graph‑Analytics‑Systemen wie hessenDATA verlangt PbD eine mehrschichtige Sicherheitsarchitektur:
PbD endet nicht mit dem Roll‑out der Software. § 71 BDSG fordert regelmäßige Wirksamkeitsprüfungen – vergleichbar den Datenschutz‑Folgenabschätzungen nach Art. 28 JI‑Richtlinie.[102] Audit‑Berichte sind an die behördliche Datenschutzbeauftragte und, bei "hohem Risiko", an die Landes‑ oder Bundesaufsicht zu übermitteln. Wird ein Bias im Modell entdeckt, greift eine Pflicht zur Re‑Engineering‑Schleife: Datenbasis, Features und Gewichtungen müssen angepasst werden, bis Paritätswerte eingehalten sind.[103]
Die technische Determinierung im PbD‑Regime zwingt Gesetzgeber, Daten‑ und Methodenkataloge mit prozessualen Qualitätssicherungen zu verzahnen. Eine Ermächtigungsnorm, die zwar Zweck und Datenarten definiert, aber keine PbD‑Vorgaben enthält, bleibt unvollständig. Ohne Log‑Pflicht, Rollenmodell und Bias‑Tests kann der Nachweis rechtsstaatlicher Kontrolle nicht geführt werden; die Norm wäre verfassungs‑ wie unionsrechtlich angreifbar.
Privacy by Design transformiert abstrakte Grundrechtsgarantien in messbare, auditierbare Technikstandards. Sie fungiert als Dreh‑ und Angelpunkt, um das Spannungsfeld
zwischen sicherheitspolitischer Effektivität und informationellem Selbstschutz praktisch zu versöhnen.
Die nationale Regulierung automatisierter Gefahrenprognosen muss sich künftig am EU‑Rechtsrahmen für Künstliche Intelligenz messen lassen. Dessen Herzstück bildet der im Frühjahr 2025 verabschiedete AI Act, der ein risikobasiertes Stufensystem etabliert und damit erstmals unionsweit justiziable Standards für Predictive‑Policing‑Technologien vorgibt.
Art. 5 Abs. 1 lit. d untersagt den Einsatz von KI‑Systemen, die individuelle Risikobewertungen natürlicher Personen vornehmen, um deren Wahrscheinlichkeit zu bestimmen, künftig Straftaten zu begehen. Damit ist personalisierendes Predictive Policing unionsweit unzulässig; nur raum‑ oder ereignisbezogene Vorhersagen bleiben grundsätzlich erlaubnisfähig.[104] Das Verbot korrespondiert mit den verfassungsrechtlichen Bedenken des BVerfG, wonach personenbezogene Profilierungen besonders eingriffsintensiv und nur unter strengen Voraussetzungen zulässig sind. Folglich dürfen nationale Gesetze weder individuelle Gefährder‑Scores noch personenbezogene Netzwerk‑Rankings ohne ausdrückliche Unionsausnahme vorsehen.
KI‑Anwendungen, die "wahrscheinliche Kriminalitäts-Hotspots" oder "Tatgelegenheitsstrukturen" prognostizieren, fallen in die Kategorie Hochrisiko‑Systeme (Anhang III Nr. 6). Diese unterliegen einer Konformitätsbewertung samt ex‑ante Prüfung technischer Dokumentation, Data‑Governance, Risikomanagement und menschlicher Aufsicht. Betreiber – typischerweise Landespolizeibehörden – müssen nachweisen, dass Trainings‑ und Echtzeitdaten repräsentativ, frei von systematischen Bias und für den Zweck angemessen sind. Fehlende Explainability oder unzureichende Bias‑Tests führen zur Unionsrechtswidrigkeit des Systems.[105]
Die JI‑Richtlinie bleibt komplementär wirksam: Art. 10 verbietet automatisierte Einzelfallentscheidungen mit Rechtswirkung, sofern nicht besondere nationale Garantien vorgesehen sind.[106] Das Zusammenspiel bedeutet, dass selbst zulässige Hochrisiko‑Systeme nur eingesetzt werden dürfen, wenn ein menschlicher Entscheidungsvorbehalt implementiert ist und Betroffene einen effektiven Rechtsbehelf erhalten. Hornung weist darauf hin, dass mangelhafte Nachvollziehbarkeit gegen Art. 47 GRCh verstößt.[107] Der AI Act verstärkt diese Anforderung, indem er "transparency by default" fordert: Nutzer‑ und Betroffeneninformationen müssen laienverständlich erklären, wie der Risikoscore zustande kam und welche Datenkategorien einflossen.
Die Verbotsnorm des Art. 5 bindet den deutschen Gesetzgeber unmittelbar (Art. 288 AEUV). § 25a HSOG und § 49 HmbPolDVG sind daher anpassungsbedürftig, soweit sie personenbezogene Präventionsprofile zulassen. Gleichzeitig fungiert der Hochrisiko‑Standard als "Mindestgrundrechtsschutz": Selbst wenn eine nationale Norm das Verbot nicht verletzt, muss sie die Konformitäts‑ und Transparenzpflichten der Verordnung operationalisieren. Bäcker fordert deshalb, Landespolizeigesetze um Risiko‑Impact‑Assessments, Audits und Notifizierungspflichten gegenüber der Bundes‑ oder Landesaufsicht zu ergänzen.[108]
Der AI Act enthält Delegationsakte, die es der Kommission erlauben, den Anhang III fortzuentwickeln. Nationale Gesetzgeber müssen somit Update‑Klauseln vorsehen, um künftige Erweiterungen des Hochrisiko‑Katalogs automatisch zu übernehmen. Ohne einen solchen Mechanismus riskieren sie Rechtslücken, die den Einsatz bestehender Systeme plötzlich unionsrechtswidrig machen.
Der AI Act transformiert die Diskussion um Predictive Policing von einer rein verfassungsrechtlichen Problematik zu einer verbindlichen unionsrechtlichen Compliance‑Frage. Verbot personenbezogener Risiko‑Scores, Pflicht zur Konformitätsbewertung und strenge Transparenz‑ sowie Aufsichtserfordernisse setzen enge Grenzen und verpflichten Bund wie Länder, ihre Sicherheitsgesetze grundlegend nachzujustieren.
Die Entscheidungen des Bundesverfassungsgerichts markieren einen Normenbruch, der die Länder zwingt, ihre Polizeigesetze strukturell zu überholen. Bäcker zeigt in einer breit angelegten Bestandsaufnahme, dass nahezu alle Länder ihre Vorfeldermächtigungen bereits formal an die Leitbegriffe der BKAG‑Entscheidung angepasst haben, jedoch in Inhalt und Systematik stark divergieren.[109] Die Reformaufgabe besteht daher darin, aus heterogenen Flickenteppichen ein konsistentes Grundrechtsniveau zu formen, das sowohl den verfassungsgerichtlichen Maßstäben
als auch den unionsrechtlichen Pflichten des AI Act genügt.
Zentral ist die materielle Entschlackung der Befugnisse. § 25a HSOG koppelt die "vorbeugende Bekämpfung" schwerer Straftaten inzwischen an einen Ausschluss von Verkehrs‑ und Telekommunikationsdaten – ein erster Schritt, der jedoch für alle Bundesländer verbindlich werden muss, wenn keine hinreichend konkretisierte Gefahr vorliegt.[110] Bäcker plädiert dafür, Datenarten nach Sensitivitätsklassen zu taxieren und für jede Klasse spezifische Eingriffsschwellen zu normieren – ein Modell, das nicht zuletzt den risikobasierten Ansatz des AI Act abbildet.[111]
Die meisten Landesgesetze verweisen weiterhin auf Verwaltungsvorschriften, wenn es um Algorithmus‑Typen oder Analyseverfahren geht. Doch das BVerfG verlangt eine gesetzliche Selbstbindung des Parlaments bei allen wesentlichen Fragen.[112] Nordrhein‑Westfalen illustriert das Defizit: § 23 Abs. 6 PolG NRW wurde 2022 als "klarstellende" Zulassung datenbankübergreifender Analysen eingeführt, ohne detaillierte Methodenvorgaben – ein Vorgehen, das die Landesdatenschutzbeauftragte als verfassungswidrig rügte.[113] Künftig müssen Länder gesetzliche Positiv‑ und Negativlisten schaffen, die etwa einfaches Clustering (zulässig) von Deep‑Learning‑Profiling (verboten) abgrenzen.
Ein Kernproblem bleibt das uneinheitliche Stufenmodell. Bayern integriert die "drohende Gefahr" in die Generalklausel (Art. 11 BayPAG) – aus dogmatischer Sicht ein riskanter Generalisor, der das Eigengewicht der Analyse unzureichend dämpft. Demgegenüber übernimmt Schleswig‑Holstein die BVerfG‑Terminologie wörtlich und bindet den Einsatz an hochrangige Rechtsgüter. Eine Mindestharmonisierung über den Ausschuss der Innenminister (Innen‑MK) könnte festlegen, dass Wahrscheinlichkeitsurteile zweiter Stufe nur bei Terror‑ oder Staatsschutzdelikten zulässig sind, während für allgemeine Kriminalität konkrete Gefahrenmomente erforderlich bleiben.[114]
Technische Nachvollziehbarkeit darf nicht dem Goodwill der Exekutive überlassen bleiben. Als Blaupause dient Hessen: Das neue Rollen‑ und Rechtekonzept zu hessenDATA muss per öffentlich zugänglicher Verwaltungsvorschrift fixiert werden (§ 25a Abs. 3 HSOG). Andere Länder sollten analoge Audit Boards installieren, die halbjährlich Bias‑Reports veröffentlichen. Nur so lässt sich Art. 47 GRCh effektiv verwirklichen.[115]
Schließlich ist die Grenzlinie zur Verfolgungsvorsorge strikt einzuhalten. Trurnit betont, dass jede landesrechtliche Erweiterung in Richtung Beweissicherung bund‑kompetenzwidrig ist.[116] Länderreformen müssen daher klar deklarieren, dass Analysebefugnisse ausschließlich präventiven Charakter haben und Daten nur nach richterlicher Anordnung in Strafverfahren überführt werden dürfen.
Eine verfassungs‑ und unionsrechtskonforme Modernisierung der Landespolizeigesetze erfordert präzise Datentypisierung, kodifizierte Methodenkataloge, harmonisierte Gefahrenschwellen, robuste Audit‑Regime und strikte Kompetenzdisziplin. Ohne diese fünf Bausteine bleibt die Big‑Data‑Analyse ein verfassungsrechtliches Vabanquespiel.
Das Strafverfahrensrecht bildet den dominanten Rechtsrahmen für jede repressiv motivierte Big‑Data‑Analyse. Gleichwohl existiert bislang keine spezifische StPO‑Ermächtigung für KI‑gestützte Auswertungen heterogener Datenpools. Die Praxis stützt sich überwiegend auf allgemeine Sicherstellungs‑ (§ 94 StPO) und Beschlagnahmevorschriften (§ 98 StPO) ‑ Normen, die historisch für singuläre Datenträger konzipiert wurden und algorithmische Massenauswertung weder vorsehen noch begrenzen. Das Bundesverfassungsgericht betont jedoch, dass automatisierte Analysen ein eigenständiges Eingriffsgewicht erzeugen und deshalb "vergleichbaren Schutzvorkehrungen wie verdeckte Überwachungsmaßnahmen" unterliegen müssen.[117]
Die Einführung eines richterlichen Anordnungs‑ bzw. Bestätigungsmodells für algorithmische Datenanalysen erscheint zwingend. Analog zu §§ 100a ff. StPO sollte jede automatisierte Verarbeitung, die personenbezogene Daten aus unterschiedlichen Quellen verknüpft, nur zulässig sein, wenn ein hinreichender Tatverdacht hinsichtlich einer schweren Straftat vorliegt. Trurnit weist darauf hin, dass eine solche strafprozessuale "Verfolgungsvorsorge" in die konkurrierende Bundeskompetenz fällt und nicht durch landesrechtliche Generalklauseln überdeckt werden darf.[118]
Die BVerfG‑Entscheidung verlangt normklare Daten‑ und Methodenkataloge, um das Eigengewicht des Eingriffs
steuerbar zu machen; pauschale Verweise auf "polizeiliche Aufgaben" genügen nicht.[119] In der StPO sollte deshalb zwischen Basis‑Metadaten (z. B. Verkehrs‑ oder Bestandsdaten) und sensiblen Inhalten (Kommunikations‑ oder Standortdaten) differenziert werden, wobei für Letztere höhere Schwellen (begrenzte Deliktskataloge, enge zeitliche Fassung) gelten müssen.
Automatisierte Analysen gefährden die Nachvollziehbarkeit des Ermittlungsverfahrens; Hornung sieht hierin eine Bedrohung effektiven Rechtsschutzes.[120] Die StPO‑Reform sollte daher:
Die JI‑Richtlinie verlangt bei automatisierten Einzelfallentscheidungen besondere Garantien, der AI Act stuft individuelle Risiko‑Scores als verbotene Praxis ein.[121] Daher muss die StPO klarstellen, dass personenbezogene Predictive‑Profiling‑Ergebnisse weder als Beweisgrundlage noch als Zwangsmaßnahmen‑Trigger eingesetzt werden dürfen. Raum‑ oder tatbezogene Prognosen bleiben unter Hochrisiko‑Auflagen zulässig, sofern menschliche Entscheidungsträger finale Maßnahmen verantworten.
Ohne eine eigenständige, technik‑spezifische StPO‑Ermächtigung droht die Gefahr, dass präventiv erhobene Daten unkontrolliert in strafprozessuale Ermittlungen einfließen und so die Schutzarchitektur der StPO unterlaufen. Ein Transparenz‑ und Kontrollregime – bestehend aus Richtervorbehalt, Daten‑ & Methodenkatalogen, umfassender Protokollierung und unabhängigen Audits – ist unerlässlich, um das digitale Ermittlungsverfahren grundrechtsfest auszugestalten und zugleich die Effizienzvorteile datengetriebener Analyse zu nutzen.[122]
Die rechtsdogmatische Analyse zeigt, dass sich die verfassungs‑ und unionsrechtlichen Vorgaben nur dann in die Praxis übersetzen lassen, wenn das künftige Regime institutionelle Kontrollstrukturen etabliert, die über klassische Datenschutz‑Aufsichten hinausgehen. Drei Säulen sind zentral:
Das Bundesverfassungsgericht verlangt "externe Fachaufsicht" und eine kontinuierliche Überprüfbarkeit der eingesetzten Analyseplattformen.[123] Diese Forderung lässt sich nur erfüllen, wenn eine institutionell verselbständigte Prüfeinrichtung – etwa nach Vorbild der Bundesnetzagentur oder des Bundesbeauftragten für den Datenschutz – die Algorithmen vor Inbetriebnahme und in regelmäßigen Abständen überprüft. Hornung hebt hervor, dass fehlende Nachvollziehbarkeit die Effektivität des Rechtsschutzes untergräbt; er plädiert für einen gesetzlich verankerten Anspruch auf Explainability, flankiert von spezialisierten Aufsichtsbehörden mit KI-Sachverstand.[124] Landespolizeigesetze sollten daher Audit‑Kompetenzen nicht allein den Datenschutzbeauftragten überlassen, sondern eine Technik‑Aufsicht sui generis mit eigenen Ressourcen und Weisungsfreiheit schaffen.
Wendt weist darauf hin, dass Hochrisiko‑Systeme nach dem AI Act eine Konformitätsbewertung einschließlich "Data Governance und Bias‑Tests" absolvieren müssen.[125] Nationale Gesetze sollten diese Vorgabe aufnehmen, indem sie (1) prä‑operativ einen Audit‑Report über Trainingsdaten, Modellarchitektur und Validierungsmetriken verlangen, (2) laufend halbjährliche Bias‑Prüfungen anordnen (z. B. false‑positive‑rate parity), und (3) ex‑post eine öffentliche Fehler‑ und Beschwerdestatistik veröffentlichen. Steege zeigt, dass systemische Diskriminierung häufig erst in der Anwendung auffällt; ohne fortlaufende Audits bleiben Verzerrungen latent. Die Prüfberichte sollten zwingend an Parlament und Zivilgesellschaft kommuniziert werden, um parlamentarische Kontrolle zu stärken.[126]
Eine dritte Governance‑Ebene betrifft die Softwaretransparenz. Bäcker konstatiert, dass die gegenwärtigen Landesregelungen oft "Generalklauseln für komplexe Technik" blieben und dadurch das Parlamentsvorbehaltsprinzip unterliefen.[127] Dem lässt sich durch ein pflichtiges Offenlegungsprinzip begegnen: Quell‑ oder zumindest Modellcode (inklusive Hyperparameter) soll nach dem skandinavischen Konzept Public Code veröffentlicht werden, sofern
Sicherheitsbelange nicht eindeutig entgegenstehen. Golla betont den demokratietheoretischen Mehrwert, wenn Wissenschaft und Zivilgesellschaft kritische Schwachstellen identifizieren können.[128] Gleichzeitig erleichtert Open‑Source die Wiederverwendbarkeit geprüfter Module und senkt Beschaffungskosten.
Ein kohärentes Governance‑Modell kombiniert die drei Säulen in einem mehrstufigen Verfahren:
Ohne unabhängige Prüfstellen, systematische Audits und ein robustes Transparenzregime laufen selbst rechtlich präzisierte Befugnisnormen ins Leere. Ein dreistufiges Governance‑Modell institutionalisiert technische, rechtliche und demokratische Kontrolle und schafft das notwendige Vertrauen in KI‑gestützte Sicherheitsarchitekturen.
Automatisierte Datenanalysen und Predictive‑Policing‑Verfahren verheißen Effizienz – sie steigern die Reaktionsgeschwindigkeit der Sicherheitsbehörden und eröffnen bislang unerreichbare Ermittlungs‑ und Präventionschancen. Doch der Preis dieser Verheißung ist hoch: Jeder Analysezyklus erzeugt einen eigenständigen Grundrechtseingriff von beträchtlichem "Eigengewicht", weil er verstreute Informationsfragmente zu personenbezogenem Wissen verdichtet und damit neue Belastungstatbestände schafft.[129] Diese Dogmatik macht deutlich, dass sich digitale Sicherheit nur dann mit verfassungs- und unionsrechtlichen Anforderungen versöhnen lässt, wenn Technik, Normsetzung und institutionelle Kontrolle aus einem Guss konzipiert werden.
Aus Sicht des Verfassungsrechts kristallisieren sich drei zentrale Leitplanken: (1) Zweckbindung zwingt den Gesetzgeber, jeden Nutzungssprung normativ zu legitimieren und Daten‑ sowie Methodengrenzen ex ante festzulegen; (2) das Verhältnismäßigkeitsprinzip fordert abgestufte Eingriffsschwellen, die proportional zum Umfang, zur Sensibilität und zur Analytik‑Tiefe der Daten ausfallen; (3) Transparenz‑ und Kontrollgarantien dienen als prozessuale Komplementärsicherung, um Rechtsverletzungen ex post gerichtsfest nachzeichnen zu können.[130] Ohne diese Trias bleibt jede Big‑Data‑Befugnis ein rechtsstaatliches Risiko.
Die kompetenzielle Systemtrennung zwischen Gefahrenabwehr (Länder) und Strafverfolgung (Bund) bildet ein weiteres Scharnier. Sobald Analysezwecke in die Verfolgungsvorsorge abgleiten, schlägt die Kompetenzordnung des Art. 74 I Nr. 1 GG zu – Landesnormen riskieren Ungültigkeit.[131] Künftige Regelwerke müssen daher klare Datentrennung, eigene StPO‑Ermächtigungen und richterliche Kontrollinstanzen etablieren, um Prävention und Repression sauber zu entflechten.
Das Unionsrecht verschärft den Regelungsdruck. Der AI Act verbietet personalisierte Risiko‑Scores und unterwirft raum‑ bzw. ereignisbezogene Prognosen einer Hochrisiko‑Konformitätsprüfung.[132] Damit wird das von Karlsruhe skizzierte Grundrechtsniveau flankiert und zugleich verstetigt: Nationale Normgeber müssen risikobasierte Impact‑Assessments, Audit‑Loops und Update‑Klauseln implementieren, um europäische Dynamiken aufzunehmen.[133]
Technisch‑organisatorisch rückt Privacy by Design in den Mittelpunkt: Rollen‑ und Rechtekonzepte, Protokollierung, Explainability‑Module und Bias‑Tests sind nicht länger optional, sondern gesetzliche Pflichtprogramme.[134] Ohne sie lassen sich weder Effektivität noch demokratische Legitimation aufrechterhalten – der digitale Sicherheitsstaat droht sonst zum intransparenten Überwachungsapparat zu degenerieren.
Schließlich bleibt der Gleichheitssatz das entscheidende Korrektiv. Empirische Evidenz aus COMPAS, Gesichtserkennung und Heat‑Map‑Systemen zeigt: Algorithmen verstärken bestehende Vorurteile, wenn Trainingsdatensätze historisch verzerrt sind.[135] Dem kann nur ein verbindlicher Bias‑Audit‑Standard begegnen, flankiert von Public‑Code‑Initiativen, die zivilgesellschaftliche Kontrolle ermöglichen.[136]
Die Zukunft der Polizeiarbeit liegt weder in ungebremster Datenakkumulation noch in pauschaler Technikverdammung. Sie liegt in einem differenzierten Hybridmodell, das algorithmische Leistungsfähigkeit nutzt, aber durch klare Rechtsgrundlagen, technische Mindeststandards und unabhängige Aufsicht domestiziert. Nur so lässt sich das Spannungsfeld zwischen Sicherheit und Freiheit nachhaltig austarieren – und das Versprechen einer verfassungsfesten, diskriminierungsfreien Sicherheitsarchitektur einlösen.
[1] Kulick, NVwZ 2020, 1622 f.
[2] Wischmeyer, Predictive Policing als Gefahrenverdachtserkennung, 2020, Rn. 19 ff.
[3] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20.
[4] Steege, MMR 2019, 716 ff.
[5] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 50 ff.
[6] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 67 ff.
[7] NK-BKAG/Schulenberg § 12 Rn. 2 ff.
[8] Kulick, NVwZ 2020, 1623.
[9] Steege, MMR 2019, 716 ff.
[10] Schoch/Schneider, VwVfG/Hornung § 35a Rn. 41 ff.
[11] Möstl/Bäuerle, Polzei- und Ordnungsrecht/Möstl, Systematische und begriffliche Vorbemerkungen zum Polizeirecht in Deutschland, Rn. 67 ff.
[12] Chibanguza/Kuß/Steege, KI-Handbuch/Momsen § 2 Rn. 4 ff.
[13] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 68 ff.
[14] NK-BKAG/Schulenberg § 12 Rn. 2–4.
[15] BVerfG, NVwZ-Beil. 2023, 53, Leits. 2–3.
[16] Möstl/Bäuerle, HSGO/Bäuerle § 25a Rn. 1–5.
[17] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 110 ff.
[18] Paal/Pauly, DS-Gvo, BDSG/Paal § 71 Rn. 4a.
[19] Richtlinie (EU) 2016/680 vom 27. April 2016, Art. 10.
[20] BeckOK-PolG-NRW/Arzt § 23 Rn. 52 ff.
[21] Schoch/Schneider, VwVfG/Hornung § 35a Rn. 41 ff.
[22] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 67 ff.
[23] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Leits. 5.
[24] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 110 ff.
[25] Lisken/Denninger, HdB-Polizeirecht/Bäcker Rn. 248 ff.
[26] Paal/Pauly, DS-Gvo, BDSG/Paal § 71 Rn. 4a.
[27] Schoch/Schneider, VwVfG/Hornung § 35a Rn. 41 ff.
[28] Wendt, KIR 2024, 7–8; Verordnung (EU) 2024/1689 vom 13. Juni 2024, Art. 5 Abs. 1 lit. d.
[29] Möstl/Bäuerle, Polzei- und Ordnungsrecht/Möstl, Systematische und begriffliche Vorbemerkungen zum Polizeirecht in Deutschland, Rn. 67 ff.
[30] Chibanguza/Kuß/Steege, KI-Handbuch/Momsen § 2 Rn. 4 ff.
[31] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 148 f.
[32] Trurnit (2025), Verfolgungsvorsorge als Bundeskompetenz, in BeckOK-PolR Bayern/Möstl/Schwabenbauer, Rn. 10 ff.
[33] Lisken/Denninger, HdB-Polizeirecht/Bäcker Rn. 320 ff.
[34] Möstl/Bäuerle, HSGO/Bäuerle § 25a Rn. 1–8.
[35] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 157 ff.
[36] Möstl/Bäuerle, HSGO/Bäuerle § 25a Rn. 1–8.
[37] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 22 ff.
[38] Möstl/Bäuerle, HSGO/Bäuerle § 25a Rn. 107–109.
[39] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Leits. 3 u. 5.
[40] Trurnit (2025), Verfolgungsvorsorge als Bundeskompetenz, in BeckOK-PolR Bayern/Möstl/Schwabenbauer, Rn. 10 ff.
[41] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 50 ff.
[42] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Leits. 2–3.
[43] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Leits. 5.
[44] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 71–73.
[45] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 110 ff.
[46] BVerfG, NVwZ-Beil. 2023, 53, Rn. 47 ff.
[47] Trurnit (2025), Verfolgungsvorsorge als Bundeskompetenz, in BeckOK-PolR Bayern/Möstl/Schwabenbauer, Rn. 10 ff.
[48] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 157 f.
[49] BVerfG, ZD 2023, 338, Leits. 3 u. 5.
[50] Trurnit (2025), Verfolgungsvorsorge als Bundeskompetenz, in BeckOK-PolR Bayern/Möstl/Schwabenbauer, Rn. 10 ff.
[51] Lisken/Denninger, HdB-Polizeirecht/Bäcker Rn. 320 ff.
[52] Kulick, NVwZ 2020, 1623.
[53] Steege, MMR 2019, 716 ff.
[54] BVerfG, NVwZ-Beil. 2023, 53, Rn. 47 ff.
[55] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 71 ff.
[56] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 110 ff.
[57] Paal/Pauly, DS-Gvo, BDSG/Paal § 71 Rn. 4a.
[58] Schoch/Schneider, VwVfG/Hornung § 35a Rn. 41 ff.
[59] BVerfG, NVwZ-Beil. 2023, 53, Rn. 47 ff.
[60] Trurnit (2025), Verfolgungsvorsorge als Bundeskompetenz, in BeckOK-PolR Bayern/Möstl/Schwabenbauer, Rn. 10 ff.
[61] Verordnung (EU) 2024/1689 vom 13. Juni 2024, Art. 5 Abs. 1 lit. d.
[62] Wischmeyer, Predictive Policing als Gefahrenverdachtserkennung, 2020, Rn. 19 f.
[63] Kulick, NVwZ 2020, 1623.
[64] Möstl/Bäuerle, HSGO/Bäuerle § 25a Rn. 1–8.
[65] Wischmeyer, Predictive Policing als Gefahrenverdachtserkennung, 2020, Rn. 20 ff.
[66] Wendt, KIR 2024, 7–8.
[67] Steege, MMR 2019, 716 ff.
[68] Schoch/Schneider, VwVfG/Hornung § 35a Rn. 41 ff.
[69] Lisken/Denninger, HdB-Polizeirecht/Bäcker Rn. 248 ff.
[70] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 71 ff.
[71] BVerfG, ZD 2023, 338, Leits. 3 u. 5.
[72] Lisken/Denninger, HdB-Polizeirecht/Bäcker Rn. 320 ff.
[73] Trurnit (2025), Verfolgungsvorsorge als Bundeskompetenz, in BeckOK-PolR Bayern/Möstl/Schwabenbauer, Rn. 10 ff.
[74] Möstl/Bäuerle, Polzei- und Ordnungsrecht/Möstl, Systematische und begriffliche Vorbemerkungen zum Polizeirecht in Deutschland, Rn. 67 ff.
[75] Steege, MMR 2019, 716 ff.
[76] Steege, MMR 2019, 716 ff.
[77] Kulick, NVwZ 2020, 1623.
[78] Wendt, KIR 2024, 7–8; Verordnung (EU) 2024/1689 vom 13. Juni 2024, Art. 5 Abs. 1 lit. d.
[79] Golla, NJW 2021, 667 ff.
[80] Schoch/Schneider, VwVfG/Hornung § 35a Rn. 41 ff.; Stern/Sachs, GRCh/Alber, § 47 Rn. 14–15.
[81] Schoch/Schneider, VwVfG/Hornung § 35a Rn. 41–43.
[82] BVerfG NVwZ-Beil. 2023, 53, Rn. 47 ff.
[83] Schoch/Schneider, VwVfG/Hornung § 35a Rn. 45 ff.
[84] Verordnung (EU) 2024/1689 vom 13. Juni 2024, Art. 13 i.V.m. Anhang IV.
[85] Wendt, KIR 2024, 7–8; Verordnung (EU) 2024/1689 vom 13. Juni 2024, Art. 5 Abs. 1 lit. d.
[86] Paal/Pauly, DS-Gvo, BDSG/Paal § 71 Rn. 4a.
[87] Möstl/Bäuerle, Polzei- und Ordnungsrecht/Möstl, Systematische und begriffliche Vorbemerkungen zum Polizeirecht in Deutschland, Rn. 67 ff.
[88] Chibanguza/Kuß/Steege, KI-Handbuch/Momsen § 2 Rn. 4 ff.
[89] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 148 f.
[90] Trurnit (2025), Verfolgungsvorsorge als Bundeskompetenz, in BeckOK-PolR Bayern/Möstl/Schwabenbauer, Rn. 10 ff.
[91] Lisken/Denninger, HdB-Polizeirecht/Bäcker Rn. 320 ff.
[92] NK-BKAG/Schulenberg § 12 Rn. 2 ff.
[93] Richtlinie (EU) 2016/680 vom 27. April 2016.
[94] Paal/Pauly , DS-Gvo, BDSG/Paal § 71 Rn. 1–5.
[95] Richtlinie (EU) 2016/680 vom 27. April 2016, Art. 24 & 25.
[96] Richtlinie (EU) 2016/680 vom 27. April 2016, Art. 13 Abs. 3 & Art. 23; Stern/Sachs-GRCh/Alber, § 47 Rn. 14–15.
[97] Paal/Pauly, DS-Gvo, BDSG/Paal § 71 Rn. 4a; Richtlinie (EU) 2016/680 vom 27. April 2016, Art. 20.
[98] Paal/Pauly, DS-Gvo, BDSG/Paal § 71 Rn. 4a.
[99] Richtlinie (EU) 2016/680 vom 27. April 2016, Art. 20.
[100] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 71–74.
[101] Schoch/Schneider, VwVfG/Hornung § 35a Rn. 41–44.
[102] Richtlinie (EU) 2016/680 vom 27. April 2016, Art. 28.
[103] Steege, MMR 2019, 716 ff.
[104] Wendt, KIR 2024, 7–8; Verordnung (EU) 2024/1689 vom 13. Juni 2024, Art. 5 Abs. 1 lit. d.
[105] Wendt, KIR 2024, 7–8; Verordnung (EU) 2024/1689 vom 13. Juni 2024, Anhang III.
[106] Richtlinie (EU) 2016/680 vom 27. April 2016, Art.10.
[107] Schoch/Schneider, VwVfG/Hornung § 35a Rn. 41 ff.
[108] Lisken/Denninger, HdB-Polizeirecht/Bäcker Rn. 273 ff.
[109] Lisken/Denninger, HdB-Polizeirecht/Bäcker Rn. 273 ff.
[110] Möstl/Bäuerle, HSGO/Bäuerle § 25a Rn. 107–109.
[111] Lisken/Denninger, HdB-Polizeirecht/Bäcker Rn. 279.
[112] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 71 ff.
[113] BeckOK-PolG-NRW/Arzt § 23 Rn. 52–59.
[114] Lisken/Denninger, HdB-Polizeirecht/Bäcker Rn. 274 f.
[115] Schoch/Schneider, VwVfG/Hornung § 35a Rn. 41 ff.
[116] Trurnit (2025), Verfolgungsvorsorge als Bundeskompetenz, in BeckOK-PolR Bayern/Möstl/Schwabenbauer, Rn. 10 ff.
[117] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 71–74.
[118] Trurnit (2025), Verfolgungsvorsorge als Bundeskompetenz, in BeckOK-PolR Bayern/Möstl/Schwabenbauer, Rn. 10 ff.
[119] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 110 ff.
[120] Schoch/Schneider, VwVfG/Hornung § 35a Rn. 41–43.
[121] Richtlinie (EU) 2016/680 vom 27. April 2016, Art. 11; Verordnung (EU) 2024/1689 vom 13. Juni 2024, Art. 5 Abs. 1 lit. d.
[122] Chibanguza/Kuß/Steege, KI-Handbuch/Momsen § 2 Rn. 4–6.
[123] BVerfG NVwZ-Beil. 2023, 53, Rn. 47 ff.
[124] Schoch/Schneider, VwVfG/Hornung § 35a Rn. 41 ff.
[125] Wendt, KIR 2024, 7–8.
[126] Steege, MMR 2019, 716 ff.
[127] Lisken/Denninger, HdB-Polizeirecht/Bäcker Rn. 273 ff.
[128] Golla, NJW 2021, 667 ff.
[129] BVerfG, Urt. v. 16.02.2023 – 1 BvR 1547/19 u. 1 BvR 2634/20, Rn. 67 ff.
[130] BVerfG, ZD 2023, 338, Leits. 3 u. 5; NK-BKAG/Schulenberg § 12 Rn. 2 ff.; Schoch/Schneider, VwVfG/Hornung § 35a Rn. 41 ff.
[131] Trurnit (2025), Verfolgungsvorsorge als Bundeskompetenz, in BeckOK-PolR Bayern/Möstl/Schwabenbauer, Rn. 10 ff.
[132] Verordnung (EU) 2024/1689 vom 13. Juni 2024, Art. 5 Abs. 1 lit. d & Anhang III.
[133] Lisken/Denninger, HdB-Polizeirecht/Bäcker Rn. 273 ff.
[134] Paal/Pauly, DS-Gvo, BDSG/Paal § 71 Rn. 4a.
[135] Steege, MMR 2019, 716 ff.
[136] Golla, NJW 2021, 667 ff.