"Il modello AI analizza molte informazioni"
L’intelligenza artificiale sta avendo un impatto crescente in numerosi settori. Ciò include le forze di polizia di tutto il mondo che lo utilizzano per contrastare la criminalità.
Tuttavia, ci sono sia vantaggi che rischi.
Ad esempio, una vittima di abusi domestici è al telefono con un addetto alle chiamate di emergenza 999.
Mentre sta parlando con un essere umano, la chiamata viene anche trascritta da un sistema software di intelligenza artificiale, che si collega direttamente ai database della polizia britannica.
Quando fornisce il nome e la data di nascita di suo marito, l'IA recupera i suoi dettagli. Rivela che l'uomo ha un porto d'armi, il che significa che gli agenti di polizia devono recarsi a casa il prima possibile.
L'esempio fa parte di una prova di tre mesi del software di chiamata di emergenza AI nel 2023 da parte della polizia di Humberside.
L’intelligenza artificiale è stata fornita dalla start-up britannica Untrite AI ed è progettata per migliorare l’efficienza delle migliaia di chiamate ricevute ogni giorno.
sistema è stato addestrato su due anni di dati storici - tutti relativi a chiamate di abusi domestici - forniti da Humberside.
Kamila Hankiewicz, amministratore delegato e co-fondatrice di Untrite, ha dichiarato:
“Abbiamo deciso di creare un assistente per gli operatori per rendere il loro lavoro leggermente più semplice perché si tratta di un ambiente ad alto stress e sensibile al fattore tempo.
“Il modello di intelligenza artificiale analizza molte informazioni, la trascrizione e l’audio della chiamata, e produce un punteggio di triage, che può essere basso, medio o alto.
"Un punteggio alto significa che deve essere presente un agente di polizia sulla scena entro cinque o dieci minuti."
Secondo Untrite, la sperimentazione indica il potenziale del software di far risparmiare agli operatori quasi un terzo del loro tempo, sia durante che dopo ogni chiamata.
Anche altre società tecnologiche, tra cui Corti e Carbyne con sede negli Stati Uniti, offrono ora sistemi software per chiamate di emergenza basati sull’intelligenza artificiale.
Il prossimo passo per Untrite prevede l’implementazione della sua intelligenza artificiale in un ambiente live e la società sta attualmente discutendo con diverse forze di polizia e altri servizi di emergenza per facilitare questo.
L’intelligenza artificiale promette di rivoluzionare il modo in cui la polizia indaga e affronta i crimini identificando modelli e collegamenti nelle prove ed elaborando rapidamente grandi quantità di dati.
Tuttavia, ci sono state notevoli sfide nell’implementazione di questa tecnologia da parte delle forze dell’ordine.
Casi di software di riconoscimento facciale basati sull’intelligenza artificiale che identificano in modo impreciso i volti neri sono stati ampiamente segnalati negli Stati Uniti nel 2023.
Nonostante le preoccupazioni, alcune città americane come San Francisco e Seattle hanno già vietato l’uso di tale tecnologia.
Tuttavia, le forze di polizia del Regno Unito e degli Stati Uniti stanno incorporando sempre più l’intelligenza artificiale nelle loro operazioni.
Tuttavia Albert Cahn, direttore esecutivo del gruppo di pressione anti-sorveglianza Surveillance Technology Oversight Project (Stop), non è soddisfatto dello sviluppo.
Ha detto: “Abbiamo assistito a un massiccio investimento e all’uso del riconoscimento facciale nonostante sia evidente che discrimina gli individui neri, latini e asiatici, in particolare le donne nere”.
Questa tecnologia può essere utilizzata in tre modi principali:
- Riconoscimento facciale in tempo reale, che confronta il feed dei volti della telecamera in tempo reale con una lista di controllo predeterminata.
- Riconoscimento facciale retrospettivo, che confronta le immagini fisse dei volti con un database di immagini.
- Riconoscimento facciale avviato dall'operatore, in cui un agente scatta una fotografia di un sospetto e la invia per una ricerca in un database di immagini.
Nell'ottobre 2023, il ministro della Polizia britannico Chris Philp ha affermato che le forze di polizia dovrebbero raddoppiare il numero di ricerche effettuate utilizzando la tecnologia di riconoscimento facciale nel prossimo anno.
Nel 2023, il National Physical Laboratory (NPL) del Regno Unito ha condotto test indipendenti su tre tecnologie di riconoscimento facciale, tutte utilizzate dalle forze di polizia metropolitane e del Galles meridionale.
In qualità di ente ufficiale del Regno Unito preposto alla definizione degli standard di misurazione, l’NPL ha riscontrato che i livelli di precisione erano notevolmente migliorati nelle ultime versioni del software.
Tuttavia, la NPL ha anche osservato che in alcuni casi la tecnologia era più incline a fornire identificazioni false positive per i volti neri rispetto ai volti bianchi o asiatici, una disparità considerata “statisticamente significativa” dalla NPL.
Sebbene sia incoraggiante che vengano condotti test indipendenti, la polizia del West Midlands ha adottato ulteriori misure istituendo un proprio comitato etico per valutare i nuovi strumenti tecnologici.
Composto da data scientist e presieduto dalla professoressa Marion Oswald, dell'Università della Northumbria, questo comitato mira a garantire una valutazione completa delle tecnologie emergenti.
L’intelligenza artificiale ha il potenziale per rivoluzionare un altro aspetto cruciale delle attività di polizia: la prevenzione.
Nello specifico, la sua capacità di prevedere i potenziali luoghi dei crimini e i probabili autori ha attirato l'attenzione.
Mentre il concept potrebbe evocare scene del thriller fantascientifico del 2002 Minority Report, non è più confinato nei regni della fantasia hollywoodiana.
Un team dell’Università di Chicago ha ideato un algoritmo che pretende di prevedere i crimini futuri con una settimana di anticipo con un tasso di precisione del 90%.
Tuttavia, vi sono preoccupazioni riguardo alla crescente prevalenza dell’intelligenza artificiale nella lotta alla criminalità.
Cahn di STOP ha affermato: “Negli Stati Uniti vediamo molti strumenti di previsione della criminalità che utilizzano algoritmi grossolani per cercare di prevedere dove si verificheranno i crimini in futuro, spesso con effetti disastrosi”.
Ha aggiunto che è disastroso perché “gli Stati Uniti dispongono di dati sulla criminalità notoriamente terribili”.
Il professor Oswald concorda sul fatto che l’uso dell’intelligenza artificiale per prevedere la criminalità presenta i suoi svantaggi.
Dice: “C'è la preoccupazione che si crei un circolo vizioso per cui non si sta realmente prevedendo il crimine, si sta solo prevedendo la probabilità dell'arresto.
“Il problema è che stai confrontando una persona con persone che hanno commesso crimini simili in passato, ma solo sulla base di un insieme di informazioni molto limitato.
"Quindi non su tutti gli altri fattori e su quelle altre cose sulla loro vita che potresti aver bisogno di sapere per prendere una decisione su qualcuno."