Ondanks al hun verbluffende frequentie, blijven schietpartijen op school een verwarrende horror.
Er is niet alleen weinig consensus over hoe ze te stoppen - met suggesties variërend van het beperken van pistooltoegang tot bewapende leraren - maar er is zelfs minder zekerheid over waarom een student het vuur op zijn klasgenoten zou openen.
Nu beginnen sommige wetenschappers te onderzoeken of kunstmatige intelligentie (AI) kan helpen antwoorden te vinden. Het idee is dat algoritmen in staat zouden kunnen zijn om gegevens met betrekking tot schietpartijen op scholen beter te analyseren en misschien zelfs patronen in studenttaal of gedrag te identificeren die schoolgeweld kunnen voorafschaduwen. Het onderzoek bevindt zich nog in een vroeg stadium en het vooruitzicht om machines te gebruiken om te voorspellen wie een schoolschutter zou kunnen worden, roept privacykwesties en andere ethische vragen op die verband houden met elke vorm van profilering, vooral omdat het proces kinderen zou omvatten. Het doel is echter om te zien of de analytische kracht van intelligente machines meer duidelijkheid kan verschaffen aan tragedies die te vaak worden gebruikt in een werveling van hoge emoties en politieke retoriek.
Wat betreft technologie
Het gebruik van kunstmatige intelligentie als een manier om wetenschappelijke analyse tot iets ondoorgrondelijk te maken als schietpartijen op scholen, sprak Shreya Nallapati erg aan. Ze is net afgestudeerd aan de middelbare school in Colorado, maar in februari, na de dood van 17 studenten in Parkland, Florida, werd ze geïnspireerd door studentleider Emma Gonzalez om actie te ondernemen.
"Ik vond dat we niet alleen onze gedachten en condoleances moesten posten", zegt Nallapati. "Ik dacht dat we als opkomende generatie millennials moeten proberen te gebruiken wat we het beste kennen - technologie."
Dus Nallapati, die kunstmatige intelligentie op de middelbare school heeft bestudeerd, heeft contact gezocht met andere jonge vrouwen die ze kent via een programma genaamd Aspirations in Computing dat wordt gerund door het National Center for Women & Information Technology. Aspirations in Computing moedigt jonge vrouwen aan om computer- en technologische velden te betreden.
Nallapati vroeg anderen in de groep om met haar mee te doen aan een nieuw project, #NeverAgainTech. Ze hoopt dat de gezamenlijke inspanning zal resulteren in een AI-gestuurde compilatie en analyse van een breed scala aan gegevens met betrekking tot schietpartijen op school - van demografische en sociaal-economische informatie over schieters uit het verleden, tot een geschiedenis van drugsgebruik of neurologische aandoeningen, tot de beschikbaarheid van wapens in de staten waar aanvallen hebben plaatsgevonden. Het doel is om een uitgebreider overzicht te krijgen van de vele componenten van schietpartijen op scholen dan wat er op dit moment bestaat, en de resulterende software volgend jaar beschikbaar te maken voor het publiek, met name scholen en wetshandhavingsinstanties.
Beoordeling van het risico
Een team van onderzoekers van het Cincinnati Children's Hospital Medical Center hanteert een andere benadering bij het gebruik van AI om geweld op school aan te pakken. Het publiceerde een recente studie die suggereert dat machine learning therapeuten en counselors mogelijk zou kunnen helpen bij het bepalen van het risiconiveau dat een student kan hebben.
De wetenschappers ontdekten in het bijzonder dat AI net zo nauwkeurig was als een team van kinder- en jeugdpsychiater bij het beoordelen van het risico op gewelddadig gedrag, op basis van interviews met 119 kinderen tussen de 12 en 18 jaar oud. agressie, hoofdonderzoeker Drew Barzman zegt dat het ook van toepassing was op het inschatten van het schoolschietrisico.
"Er zijn meestal waarschuwingssignalen voordat er geweld op school is, " zegt hij. In het bijzonder kan de taal die een student tijdens een interview gebruikt, helpen een tiener met een hoog risico te onderscheiden van een tiener met een laag risico, volgens eerder onderzoek dat Barzman heeft geleid. Die studie concludeerde dat eerstgenoemde eerder negatieve gevoelens over zichzelf en over de daden van anderen uitte. Hij had ook meer kans om te praten over gewelddadige handelingen waarbij hijzelf betrokken was en gewelddadige videogames of films.
Het team nam nog een stap door een AI-algoritme de resultaten van de eerdere studie te laten gebruiken om transcripties van geïnterviewde studenten voor het nieuwe onderzoek te analyseren. Op basis van taalpatronen gaf het aan of een persoon een hoog of laag risico had om geweld te plegen. Meer dan 91 procent van de tijd stemde het algoritme, met alleen de transciripts, overeen met de uitgebreidere beoordelingen van een team van kinder- en jeugdpsychiater, die ook toegang hadden tot informatie van ouders en scholen.
De studenten in het onderzoek waren grotendeels geworven uit poliklinieken psychiatrie, intramurale afdelingen en spoedeisende hulp. Sommigen hadden recent grote gedragsveranderingen laten zien, maar voor anderen waren de veranderingen minder belangrijk. Barzman zegt dat ze op verschillende scholen hebben gezeten, hoewel geen enkele naar huis ging.
Volgens Barzman was de studie gericht op het voorspellen van fysieke agressie op school, maar dat het nog steeds niet bekend is of machine learning daadwerkelijk geweld kan voorkomen. De focus op dit punt is om therapeuten en counselors een hulpmiddel te bieden dat hun beoordelingen van studenten zou kunnen aanscherpen op basis van interviews. Barzman merkt op dat het niet de bedoeling is dat machines beslissingen nemen over studenten.
"Het zou eigenlijk bedoeld zijn om de clinicus te helpen bij zijn of haar besluitvorming", zegt Barzman. "We zouden ze een structuur geven van wat we belangrijke vragen vonden. Het kan moeilijk zijn om een student te interviewen, de juiste informatie te vinden en alles te onthouden. Het idee is om hen een hulpmiddel te geven dat hen kan helpen door het proces en verhoog de nauwkeurigheid van hun beoordelingen. "
Matty Squarzoni is een andere gelovige in het potentieel van kunstmatige intelligentie bij het aanpakken van geweld op school. Hij is CEO van een Californische startup genaamd Sitch AI, die van plan is technologie op de markt te brengen waarvan hij zegt dat scholen dergelijke bedreigingen kunnen helpen aanpakken. De eerste focus zal liggen op de ontwikkeling van een systeem van sensoren waarmee politieagenten de precieze locatie van geweerschoten kunnen detecteren en ook de bewegingen van een schieter door een school kunnen volgen. Maar Squarzoni zegt dat het bedrijf ook manieren onderzoekt om voorspellende analyses te gebruiken om potentiële problemen te herkennen voordat ze gewelddadig worden.
Hij is van mening dat kunstmatige intelligentie de gegevens van een student kan analyseren en opmerkelijke veranderingen in zijn of haar prestaties of gedrag kan signaleren. Squarzoni erkent mogelijke zorgen over privacy, maar zegt dat het bedrijf de identiteit van studenten niet zou kennen.
"We hebben het niet over het maken van profielen, " zegt hij. “We zouden elke persoon als een unieke entiteit beschouwen. Maar mensen zijn gewoontedieren. Wanneer ze onregelmatigheden beginnen te krijgen, begin je ze te bekijken. Je ziet vlaggen en misschien komen de vlaggen steeds dichterbij. Het kunnen geestelijke gezondheidsproblemen zijn, of misschien dalen hun cijfers.
"We willen niet kunnen zeggen: 'Deze persoon wordt een schutter.' We willen kunnen zeggen: 'Deze persoon heeft hulp nodig.' "
Niet zo snel?
Maar anderen maken zich ernstige zorgen over de haast om software-algoritmen te gebruiken om complexe maatschappelijke problemen aan te pakken.
"We zien nu een trend waarbij AI wordt toegepast op zeer gevoelige domeinen met alarmerende snelheden, en mensen die deze algoritmen maken, begrijpen niet noodzakelijkerwijs alle sociale en zelfs politieke aspecten van de gegevens die ze gebruiken, " zegt Rashida Richardson, directeur van beleidsonderzoek aan het AI Now Institute, een programma aan de Universiteit van New York dat de sociale implicaties van kunstmatige intelligentie bestudeert.
Een gebied waar het gebruik van AI onder vuur is komen te liggen, is wat bekend staat als predictive policing. Dit zijn softwareproducten die misdaadstatistieken analyseren en vervolgens voorspellen waar misdaden waarschijnlijker zullen worden gepleegd. Maar critici wijzen erop dat gegevens zoals arrestaties het gevolg kunnen zijn van menselijke vooroordelen, die uiteindelijk in het algoritme kunnen worden ingebakken.
Dat is altijd een risico van voorspellende analyse en waarom de bron van de gegevens een sleutelfactor is om te bepalen hoe objectief deze eigenlijk kan zijn. Met de AI-tool die wordt ontwikkeld door de onderzoekers van het Cincinnati Children's Hospital, is de analyse echter gebaseerd op wat individuele studenten zeggen tijdens een interview, in plaats van een brede verzameling van statistieken.
Toch vindt Richardson het belangrijk dat teams die dit soort software maken 'interdisciplinair' zijn, zodat bijvoorbeeld docenten betrokken zijn bij programma's die het gedrag van studenten beoordelen.
“Onderzoekers begrijpen misschien niet veel van de nuances van wat mensen in het onderwijs- en juridisch beleid wereldklimaat noemen. Dat omvat veiligheids- en gedragsproblemen, ”zegt ze. “Het soort school waar je naar toe gaat, zal vaak bepalen hoe met gedrag wordt omgegaan en hoe discipline wordt aangepakt.
"Er is bijvoorbeeld vastgesteld dat charter-scholen een veel strenger disciplinair beleid hebben, " voegt Richardson toe. “Kinderen in die omgeving zullen veel anders worden behandeld dan op een high-end privéschool en zelfs in verschillende openbare scholen.
“Proberen om zeer gecompliceerde problemen met ontelbare input te begrijpen en een technische oplossing toe te passen die een klein deel ervan weerspiegelt, is een probleem omdat het dezelfde problemen kan herhalen die we in de samenleving zien, ofwel een oplossing kan creëren voor een probleem dat er niet is. ”
Richardson zegt dat een andere zorg is dat zelfs als een AI-programma met de beste bedoelingen wordt ontwikkeld, het uiteindelijk kan worden gebruikt op manieren die niet door de makers ervan zijn voorzien.
"Als je eenmaal met deze hulpmiddelen bent gekomen, " zegt ze, "is het niet alsof je controle blijft houden over hoe ze worden geïmplementeerd of hoe ze de samenleving als geheel blijven beïnvloeden."