De moord op de zeventienjarige Lisa uit Abcoude laat zien hoe kwetsbaar vrouwen nog altijd zijn in de openbare ruimte. Zij werd midden in de nacht gevolgd en niet veel later vermoord gevonden langs een onverlicht fietspad. Het is een gebeurtenis die Nederland geschokt achterlaat en opnieuw de vraag oproept waarom we met al onze technologie nog steeds niet in staat zijn om dit soort misdaden te voorkomen. De samenleving is veiliger geworden in cijfers maar niet in gevoel. Misschien is het tijd om technologie niet langer alleen te zien als een middel om na afloop te reconstrueren wat er is gebeurd maar juist om te voorkomen dat het gebeurt.
In een wereld waarin camera’s, drones en satellieten overal aanwezig zijn, is het niet langer ondenkbaar dat kunstmatige intelligentie gebruikt wordt om gevaar te herkennen nog voordat het toeslaat. Wat als een systeem zou kunnen voorspellen dat iemand wordt gevolgd. Wat als het afwijkende gedrag op straat herkent of ziet dat een persoon zich verdacht ophoudt bij een fietspad waar eerder meldingen van onveiligheid zijn gedaan. Een algoritme zou in zo’n geval een waarschuwing kunnen uitsturen, een drone zou laag kunnen overvliegen en de verlichting kan automatisch worden ingeschakeld. De politie zou binnen enkele minuten ter plaatse kunnen zijn. Technologie kan geen kwaad wegnemen, maar het kan de dader wel zijn anonimiteit en zijn kans op straffeloosheid ontnemen.
Deze gedachte is niet langer sciencefiction. Bedrijven zoals Palantir, opgericht door Pieter Thiel, gebruiken systemen die in staat zijn veldslagen te voorspellen door bewegingen, satellietbeelden en communicatiepatronen te analyseren. Dezelfde technologie kan in een burgerlijke context worden toegepast om afwijkende gedragingen te herkennen. Dat kan variëren van het volgen van iemand tot het ophouden op verdachte plekken. In China worden al jarenlang gezichtsherkenningssystemen gebruikt die miljoenen mensen in kaart brengen. De effectiviteit daarvan is moeilijk te meten, maar het laat zien dat grootschalige analyse van gedrag technisch mogelijk is.
Een vergelijkbare inzet van kunstmatige intelligentie zou in Europa vooral gericht kunnen zijn op risicogebieden waar geweld of intimidatie vaker voorkomt. Drones zouden er niet op uit zijn om burgers te volgen, maar om patronen te herkennen die afwijken van het normale nachtelijke verkeer. Een vrouw die in paniek belt kan meteen worden gelokaliseerd, waarna de dichtstbijzijnde eenheid ingrijpt. De winst in veiligheid zou aanzienlijk kunnen zijn, maar het roept een ongemakkelijke vraag op. Hoeveel privacy zijn we bereid op te geven om deze bescherming te krijgen.
De ethische afweging is complex. Een samenleving die kiest voor vergaande monitoring begeeft zich op het snijvlak van vrijheid en controle. Privacy is een fundamenteel recht, maar het recht op veiligheid is dat ook. Vrouwen en kinderen die nu na zonsondergang liever niet alleen over straat gaan, hebben baat bij systemen die hun veiligheid vergroten. Voor hen is vrijheid niet vanzelfsprekend zolang angst hen beperkt in hun bewegingsruimte. Wanneer toezicht voorkomt dat iemand slachtoffer wordt, is dat moreel te rechtvaardigen. Toch schuilt in elke vorm van bewaking het risico van misbruik, profilering of overmatig ingrijpen.
De technologie achter deze visies is al verder dan de publieke discussie erover. Kunstmatige intelligentie kan looppatronen, lichaamstaal en gezichtsuitdrukkingen analyseren en koppelen aan eerder vastgelegde risicosignalen. Drones kunnen autonoom gebieden scannen en situaties beoordelen zonder menselijke tussenkomst. Satellieten leveren beelden die veranderingen in gedrag van groepen zichtbaar maken. De infrastructuur bestaat dus al. De vraag is vooral of de maatschappij bereid is haar gebruik te accepteren en te reguleren.
In een ideale wereld werkt zo’n systeem niet op basis van gezichten of namen maar op gedrag. Het herkent niet wie iemand is, maar wat iemand doet. Daarmee kan discriminatie worden beperkt en blijft de focus liggen op het voorkomen van gevaar, niet op het controleren van mensen. Zodra het systeem een patroon herkent dat overeenkomt met dreigend gedrag, wordt een signaal gestuurd naar menselijke operatoren die kunnen bevestigen of er reden is tot actie. Zo blijft de mens verantwoordelijk en de technologie ondersteunend.
Er zijn steden die al voorzichtig experimenteren met vergelijkbare vormen van preventieve technologie. In Singapore wordt met behulp van slimme camera’s bepaald of iemand langdurig in een donker gebied blijft hangen. In de Verenigde Staten wordt in sommige steden getest met AI die geluiden zoals geschreeuw of glasbreuk herkent en automatisch de politie alarmeert. De resultaten laten zien dat de technologie kan helpen, maar ook dat foutpositieve meldingen onvermijdelijk zijn. Daarom is menselijke toetsing onmisbaar.
Toch is de discussie in Europa vaak verlamd door angst voor misbruik. Er heerst wantrouwen tegenover toezicht, gevoed door de geschiedenis en de zorg om staatscontrole. Dat wantrouwen is begrijpelijk, maar mag niet verlammen. Er bestaat een middenweg tussen totale privacy en totale surveillance. Die weg begint bij transparantie, duidelijke regels en toezicht op de organisaties die dergelijke technologie inzetten. Burgers moeten weten wanneer zij gefilmd worden, wat er met hun data gebeurt en hoe lang die worden bewaard. Alleen zo kan vertrouwen ontstaan.
De tragische dood van Lisa maakt duidelijk dat veiligheid geen abstract begrip is. Het gaat om tastbare bescherming van levens. Een samenleving die haar kwetsbaarsten niet kan beschermen, heeft de morele plicht om nieuwe oplossingen te onderzoeken. Technologie kan daarbij een bondgenoot zijn mits zij wordt geleid door menselijke waarden. Kunstmatige intelligentie kan analyseren, waarschuwen en voorspellen, maar niet beslissen wat rechtvaardig is. Die taak blijft bij de mens.
Wanneer technologie op de juiste manier wordt ingezet, kan zij vrijheid juist versterken. Want vrijheid betekent niet alleen onbelemmerd leven zonder toezicht, het betekent ook zonder angst over straat kunnen gaan. De keuze tussen privacy en veiligheid hoeft geen nuloptie te zijn. Met slimme wetgeving, transparante algoritmes en strikte controle kan een evenwicht worden bereikt waarin technologie niet dient om te overheersen, maar om te beschermen.
De zaak in Abcoude zou in de toekomst kunnen dienen als kantelpunt. Als aanleiding om serieus te onderzoeken hoe kunstmatige intelligentie, drones en satellieten samen kunnen bijdragen aan een samenleving waarin vrouwen zich niet meer hoeven af te vragen of ze veilig thuiskomen. Het zou een samenleving zijn die niet wacht tot er weer een slachtoffer valt, maar vooruitkijkt, leert en voorkomt. Niet om de mens te controleren, maar om hem te beschermen.
Een wereld waarin camera’s niet langer alleen vastleggen wat er misgaat, maar waar technologie stilletjes waakt. Niet om te oordelen, maar om te signaleren wanneer het kwaad zich roert. Als we daarin slagen, zal de vrijheid die we terugwinnen groter zijn dan de privacy die we ervoor inleveren. Want veiligheid is geen beperking van vrijheid, het is haar fundament.
