La capacità computazionale moderna consente alle macchine di apprendere autonomamente nuove nozioni e applicarle per la risoluzione di problemi. Quali sono i vantaggi e gli svantaggi di un sistema che affida la sicurezza umana alla tecnologia?
Quando si utilizzano insieme i termini “intelligenza” e “artificiale”, si indica una branca delle tecnologie, e del diritto a esse applicato, che riguarda la capacità di una macchina di imitare il funzionamento del cervello umano, apprendendo autonomamente nuove nozioni da cui far derivare scelte e azioni. Contrariamente a quanto si può pensare, l’accostamento delle due parole non è ancora sinonimo di intelligenza intesa come “creatività”, poiché quest’ultima presuppone anche una presa di coscienza della propria esistenza che, al momento, non rientra tra le capacità delle macchine, influenzate e limitate nelle scelte dai programmi (intesi come sequenze di istruzioni) sviluppati dall’uomo.
Ciò che realmente consente di fare l’intelligenza artificiale (AI), è analizzare enormi quantità di dati in poco tempo e, sulla base di modelli matematici o statistici, selezionare l’opzione più idonea a risolvere un problema. La capacità computazionale dei moderni elaboratori rende le macchine anche in grado di integrare basi di dati su cui vanno a lavorare con ulteriori elementi, non introdotti dall’uomo ma acquisiti autonomamente, influenzando così le successive scelte. Gli archivi originali – e, conseguentemente, gli esiti delle elaborazioni statistiche e delle logiche matematiche – ne risultano a loro volta modificati.
La crescente applicazione dell’AI ai più comuni aspetti della vita quotidiana e della Pubblica Amministrazione ha spinto il Parlamento Europeo a interessarsi dei risvolti giuridici e pratici provocati dall’introduzione delle funzioni automatiche delle macchine nei processi decisionali, con particolare attenzione alle responsabilità connesse e alla capacità di ipotizzare (non prevedere, la differenza è sostanziale) cosa accadrà nel futuro.
A partire dai sistemi di assistenza vocale, già disponibili alla massa dei consumatori, fino alle auto a guida autonoma, un primo impatto rilevante sui cittadini è quello delle responsabilità connesse all’uso di prodotti basati sull’intelligenza artificiale; infatti, se è vero che l’ultimo venditore risponde comunque dei vizi del prodotto nei confronti del consumatore (almeno in Europa), è altrettanto vero che l’analisi degli elementi alla base di una qualsiasi azione giudiziaria non è attualmente alla portata di ogni cittadino, considerando i costi da sostenere per perizie e accertamenti tecnici e scientifici e i non pochi ostacoli posti dai produttori a tutela della loro proprietà intellettuale e industriale.
Nel settore della sicurezza, l’intelligenza artificiale è utilizzata ormai da anni per la rilevazione delle infrazioni, attraverso l’analisi dei comportamenti degli automobilisti (autovelox, sistemi di controllo della velocità media, rilevazione delle infrazioni al semaforo e nelle zone a traffico limitato ecc.), cui consegue l’emissione di un verbale di contestazione dell’infrazione; tale documento, sebbene successivamente verificato da un pubblico ufficiale, viene elaborato e portato all’attenzione del cittadino da un sistema completamente automatico.
La soluzione “Made in USA”
Di particolare interesse, anche per gli impatti che potrebbero avere sulla vita dei cittadini, sono gli esperimenti avviati da alcuni settori delle forze dell’ordine per la prevenzione dei reati, basati sull’analisi di grandi quantità di dati provenienti dagli archivi delle procure. Le modalità di acquisizione ed elaborazione dei dati sono sostanzialmente due.
Negli Stati Uniti, le statistiche sui reati commessi nei singoli quartieri o zone vengono utilizzate per organizzare i controlli sul territorio. Si tratta di una soluzione che ha sollevato diverse critiche, per l’elevato rischio di pregiudizio a scapito dei diritti dei cittadini, che potrebbe innescarsi (e, in alcuni casi, è già stato rilevato sul campo) a causa dello stretto legame tra i controlli e i reati.
È infatti emerso che l’attenzione determinata dal software su particolari zone della città porta a un aumento dei controlli e, conseguentemente, a un aumento delle contestazioni a livello locale nelle aree interessate. Tale evidenza rischia però di determinare un effetto a spirale, alterando le statistiche e, conseguentemente, le successive disposizioni sui controlli, che arriverebbero a concentrare i presidi militari su alcuni quartieri a discapito di altri.
Emerge anche, dall’analisi dei primi risultati delle varie sperimentazioni, che i software finiscono per concentrarsi su alcune etnie che sono riconosciute come maggiormente a rischio di commettere reati, non per una propensione genetica al crimine ma semplicemente perché nei quartieri disagiati – dove è maggiore la presenza di taluni gruppi etnici – perfino le denunce risentono della maggiore litigiosità interna (per esempio, sembra che gli afroamericani si denuncino molto più spesso tra loro rispetto ad altre realtà o a quanto avviene in gruppi etnici diversi).
Incide inoltre sulle statistiche la maggiore o minore fiducia del cittadino nella giustizia, con il rischio di andare a penalizzare i soggetti che ritengono inutile o troppo oneroso il ricorso alle forze dell’ordine e alla magistratura (cosa che, per esempio in Italia, è purtroppo evidente per i reati minori e per taluni reati a sfondo sessuale).
Ls soluzione “Made in ITALY”
Tutti questi elementi stanno consigliando di abbandonare lo sviluppo di software predittivi legati ad algoritmi di analisi delle denunce pervenute e dei procedimenti attivati (troppe variabili influenzano negativamente i risultati) per concentrarsi, invece, sulla soluzione sviluppata in Italia da Marco Venturi, graduato della Polizia di Stato successivamente dedicatosi all’imprenditoria digitale.
L’intuizione di Venturi, che oggi guida una start up finalizzata allo sviluppo di un software di analisi e prevenzione dei reati (utilizzato – in via sperimentale – nella città di Milano), è stata quella di analizzare i casi già pervenuti all’attenzione delle forze dell’ordine e dell’autorità giudiziaria, i cui elementi di prova sono cristallizzati nei fascicoli processuali, mettendoli in relazione per tracciare un profilo criminale del soggetto responsabile delle violazioni e prevederne i futuri comportamenti.
Questo approccio, più analitico e meno basato sulle statistiche, consente di mettere in relazione eventi anche diversi e distanti tra loro, sia geograficamente che nel tempo, ricostruendo sequenze di reati che seguono schemi comuni o hanno molte caratteristiche che coincidono. Salvo rare eccezioni, l’analisi di tali elementi porta a individuare una sorta di “firma” dei delitti, che permette anche di prevedere futuri comportamenti e fornire elementi utili alle indagini e alla prevenzione di ulteriori crimini.
Inoltre, il sistema non è discriminatorio, nel senso che utilizza dati come l’etnia, l’orientamento religioso, la frequentazione di determinati ambienti o territori esclusivamente per fornire elementi di valutazione dei possibili sviluppi dell’attività criminale.
Com’è evidente, infatti, la condotta già accertata di un soggetto di etnia caucasica, abituato a utilizzare armi bianche e auto giapponesi per compiere rapine ai danni di uffici postali periferici, non è discriminatoria nei confronti di tutte le persone di etnia caucasica o dei territori periferici che ospitano uffici postali; è invece un dato che consente alle forze dell’ordine di notare se, all’esterno di un ufficio postale di periferia, c’è un’auto giapponese con il motore acceso e un soggetto di etnia caucasica che si sta avvicinando all’entrata.
Chi comincia bene…
Il vero problema dell’intelligenza artificiale è la realizzazione degli algoritmi alla base delle decisioni che permettono al sistema di autoalimentarsi, accrescere le proprie competenze e operare in autonomia dopo una necessaria fase di apprendimento e collaudo. Un’impostazione mentale “discriminatoria” del gruppo di progettazione e sviluppo inevitabilmente si ripercuoterà sull’elaborazione dei dati, sul peso dato loro nell’orientare le scelte, sull’etica e l’equilibrio di determinate conclusioni, con un effetto a cascata sempre più incontrollabile e imprevedibile a mano a mano che aumentano i dati disponibili. È quindi particolarmente importante analizzare, in fase iniziale, i risultati che si intendono ottenere e, soprattutto, indicare chiaramente i limiti che si intendono porre all’azione automatica del sistema informatico.
Da questo punto di vista, l’esperimento della procura di Shanghai Pudong, che ha sostituito l’attività del Pubblico Ministero con un sistema che, analizzando gli elementi messi a sua disposizione dalle forze dell’ordine, elabora le imputazioni e dispone misure cautelari, è allarmante, sia per i risvolti di natura etica sia per la reale efficacia del sistema. Innanzitutto, le scelte del “PM digitale” sono basate su circa 17.000 fascicoli (riferiti al periodo 2015-2020) già presenti negli archivi dell’ufficio giudiziario e quindi solo parzialmente attendibili (basta pensare al settore delle tecnologie informatiche, dove cinque anni corrispondono a un’era geologica). Inoltre, molti si chiedono chi risponderà per gli eventuali errori commessi dal sistema: il produttore o la procura?
Secondo le dichiarazioni del ricercatore che ha guidato il team di sviluppo, l’efficienza del sistema è già stata testata nelle carceri e ha restituito una precisione del 97%. Tuttavia, anche la proporzione di tre soggetti sanzionati ingiustamente rispetto ai 97 che meritavano la punizione non è un risultato accettabile su grandi numeri (diventano 3000 su 100.000 persone).
Infine, resta il dubbio sull’efficienza di un algoritmo studiato per controllare soggetti già classificati come criminali da una corte e cittadini che, invece, non hanno precedenti e quindi dovrebbero essere valutati anche sulla base di criteri discrezionali quali l’atteggiamento collaborativo o ostico, il dolo o colpa nella perpetrazione del crimine, la casualità dell’evento, le ragioni di giustificazione, la volontà di espiazione; si tratta di variabili che una macchina, ovviamente, non è in grado di gestire (almeno per ora).