• AgoraVox su Twitter
  • RSS
  • Agoravox Mobile

 Home page > Attualità > Scienza e Tecnologia > Di algoritmi, frodi ed espulsioni informatiche…

Di algoritmi, frodi ed espulsioni informatiche…

Nel 2014 un’inchiesta della BBC aveva portato all’attenzione dell’allora “Home Secretary” Theresa May, in carica per gli affari di immigrazione e cittadinanza, frodi commesse durante test di conoscenza della lingua inglese da studenti stranieri per poter ottenere un permesso di soggiorno. Venne così richiesto ai creatori del test e agli istituti che lo utilizzavano di rivedere i metodi di valutazione, introducendo metodi all’altezza per contrastare il fenomeno. Da 2014 al 2016 i risultati vennero riscrutinati e le revoche dei permessi furono circa 35800, di cui circa 7000 emesse ingiustamente stando ad un recente articolo del Financial Times.

A dichiarare fraudolenti i risultati dei test è stato un algoritmo, nello specifico un software di identificazione vocale impiegato dalla società che creò il test (Educational Testing Service), per verificare se le parti orali dell’esame fossero state realmente sostenute dai candidati o piuttosto da un complice al loro posto. Il Programma confrontava le tracce vocali dei candidati alla ricerca di “doppioni” come prova che qualcuno potesse aver sostenuto con successo l’esame per conto di più candidati.

Ad attrarre attenzione intorno a questa faccenda sono diversi aspetti: quello sociale, per la prontezza con cui sono state applicate le espulsioni, spesso precedute anche da arresti e dall’impossibilità di ricorrere in appello; l’aspetto politico, poiché l’episodio si colloca in un annunciato clima di “linea dura” contro l’immigrazione illegale, dimostrando le dirette ripercussioni di certi provvedimenti sull’immigrazione legale.
L’aspetto su cui muovere l’attenzione in questo contesto è invece l’ennesima dimostrazione del difficile rapporto fra istituzioni e tecnologia.
La vicenda è esempio di come alcuni sviluppi informatici siano ancora vissuti come mezzi a cui rivolgersi quando un mal progettato iter legale si dimostra fallimentare, piuttosto che strumenti da affinare e integrare fin dai primi stadi di progettazione di percorsi normativi.

La storia dei programmi di identificazione vocale è strettamente legata a quella dei software di riconoscimento vocale, oggi largamente diffusi in applicazioni di uso quotidiano: personal assistants, programmi di dettatura, comandi vocali applicati ai più disparati sistemi operativi, ma anche spionaggio e analisi forensi. Lo sviluppo di tali tecnologie inizia negli anni ’50 con programmi in grado di riconoscere solo numeri (Audrey, Bell Laboratories 1952) passa poi negli anni ottanta a sistemi moderatamente più avanzati grazie all’interesse della DARPA, con cui vennero introdotte le prime rudimentali forme di predizione. Ad oggi questi programmi dispongono di vocabolari di circa 200 miliardi fra parole e frasi. Vantano inoltre forme di predizione molto più elaborate. Parallela abbiamo l’analisi forense degli spettrogrammi eseguita in ambito legale da software ed esperti.

Non sono disponibili dettagli sul software utilizzato nelle verifiche degli esami TOEIC, né sono stati resi pubblici i criteri con cui si è scelto di accettare come valido oppure invalido un esame, dato che il software, confrontando due campioni audio, restituisce nulla più di una percentuale di somiglianza. Secondo la rivista QUARTZ, che anche si è occupata della vicenda, in un precedente caso simile i risultati del TOEIC furono controllati da due impiegati dopo le indicazioni del software e solo nel 60% dei casi questi si rivelarono d’accordo con il programma.

La natura incerta di questi risultati non è solo da attribuirsi a questo specifico programma, qualunque esso sia, ma alla natura stessa con cui queste applicazioni si sviluppano e migliorano oggi, ossia il Machine-Learning.
È bene specificare che la grande maggioranza dei programmi che agiscono dietro a numerosi aspetti della nostra vita “hanno imparato il mestiere da soli”, ovvero gli sono stati somministrate grandi quantità di dati che, attraverso classificazione e generalizzazione, hanno trasformato in modelli da riconoscere e con cui interagire all’interno del ruolo che devono svolgere. Se prendiamo ad esempio le immagini, sappiamo che sarebbe estremamente dispendioso cercare di definire un “bicchiere” e così, ad un programma destinato a riconoscere bicchieri all’interno di più complesse rappresentazioni, è molto più facile dare un enorme corpus di immagini contenenti bicchieri e lasciare che esso trovi da solo il modo più efficiente di definire e riconoscere tale oggetto.
La conoscenza di queste macchine è di tipo statistico e, anche se in continuo miglioramento, sotto certi aspetti ancora rudimentale.

Sono diverse le testimonianze in ambito tecnologico di una certa tendenza di questi programmi ad eludere i limiti che vengono loro posti pur di adempiere alle loro funzioni, come ampiamente descritto dalla scienziata Janelle Shane nel suo blog.

Sembra si stiano attraversando paesaggi di nuova insicurezza in cui l’aspetto più spaventoso è l’impossibilità di “ragionare” con questi nuovi agenti avversi. Ci sono nuovi attori nella nostra vita, sono macchine prive d’autista che falliscono nel riconoscere un pedone, programmi di trading in grado di cambiare le sorti di importanti titoli in poche ore, ma anche ingranaggi dietro ai motori di ricerca che cambiano la quantità e la qualità delle informazioni a cui possiamo avere accesso.
Pare che queste tecnologie, i loro creatori e chi le implementa stiano vivendo un’adolescenza. Un periodo di grande entusiasmo, ma anche di significativa ignoranza che sta avendo, per qualcuno, effetti devastanti.

Mattia Rodini

Questo articolo è stato pubblicato qui

Lasciare un commento

Per commentare registrati al sito in alto a destra di questa pagina

Se non sei registrato puoi farlo qui


Sostieni la Fondazione AgoraVox


Pubblicità




Pubblicità



Palmares

Pubblicità