• AgoraVox su Twitter
  • RSS
  • Agoravox Mobile

 Home page > Attualità > Media > Facebook, l’algoritmo che genera fake-news e l’Intelligenza artificiale

Facebook, l’algoritmo che genera fake-news e l’Intelligenza artificiale

Oggi ho aperto il mio account Facebook e ho scoperto che due amici in un altro Paese si erano sposati. Mi è sembrato strano dal momento che loro sono stati insieme per molti anni, hanno avuto dei figli e non avevano fatto alcun annuncio al riguardo.
Ma il post su Facebook sembrava autentico. C’erano numerose foto e varie persone si congratulavano con loro. Così, ho mandato un messaggio alla ‘sposa’, la quale mi ha confermato che non si sono sposati: semplicemente, quando aveva tentato di inserire un nuovo indirizzo e-mail, Facebook le aveva chiesto se fosse sposata e con chi. E si era quindi creato autonomamente il post.

di Silvia Swinden

Noi siamo ormai abituati a scartare ogni tipo di fake-news condivisa su Facebook per malizia, credulità o oscure ragioni difficili da comprendere; ma vi possiamo generalmente individuare una qualche intenzione umana dietro.
Il fatto che Facebook possa produrre fake-news per via di un errore nel suo algoritmo fa sorgere una nuova questione. Sto seguendo con interesse, da un po’ di tempo, la discussione tra Mark Zuckerberg e Elon Musk sul futuro dell’Intelligenza Artificiale.

Il Guardian ha scritto: «Le fondamenta della battaglia per un mondo più tecnologico sono stato gettate da Musk – amministratore delegato di Tesla e SpaceX – all’inizio del mese, quando ha nuovamente spinto per una regolamentazione proattiva dell’intelligenza artificiale, poiché crede che essa ponga un “rischio fondamentale per l’esistenza dell’umanità”. Musk ha anche aggiunto: “Continuo a suonare l’allarme ma, finché le persone non vedranno i robot uccidere le persone in strada, non sapranno come reagire perché tutto ciò sembra oggi irreale”.

“Ho grande convinzione in ciò. Sono ottimista – afferma invece Zuckerberg – E penso che le persone che si oppongono e cercano di paventare questi scenari apocalittici… beh, non le capisco. È decisamente negativo e, penso, in qualche modo anche irresponsabile”, ha risposto quando gli è stata chiesta la sua opinione al riguardo».

Intanto sembra che – prima di vedere i robot conquistare il mondo – assisteremo ad alcuni preoccupanti incidenti, poiché agli algoritmi che trattano la maggior parte dei compiti automatici dei ‘giganti del Web’ sono stati dati incarichi sempre più complessi, che non sono in grado di gestire. Alcuni esempi di questo fenomeno sono già visibili: se quella bufala sui miei amici sembra abbastanza innocua, chi può invece sapere quale tipo di cambiamenti produrranno altre ‘informazioni’ meno inoffensive – per influenzare il comportamento di coloro che credono in qualunque cosa leggano sui social network?

Un altro incidente riguardante un software è accaduto a Facebook quando ha pubblicato per errore i nomi di coloro che regolano i contenuti del social network.
Sempre il Guardian ha scritto: «Facebook ha reso pubblica l’identità dei ‘moderatori’ di sospetti terroristi. Un bug nella sicurezza che ha colpito più di mille addetti ha costretto un moderatore a nascondersi, e questi vive ancora nella paura costante per la sua incolumità».

L’intenzionalità umana, cioè il modo in cui la coscienza struttura i dati provenienti da sensi e memoria, ha una direzione e un ‘tono’ emotivo. L’intera umanità cerca di scappare dalla sofferenza, andando verso una profonda felicità. Anche se si sbaglia (vedasi l’aumento della violenza), è possibile capire le radici del problema: paura, frustrazione, ingiustizia, indottrinamento, avidità.

E se gli algoritmi organizzano la loro struttura, noi non dovremmo accordarla intenzionalmente a loro. Solo gli umani possono dare una direzione. Le macchine seguiranno una certa logica, data dall’uomo che le ha create; ma la ricerca dell’intelligenza artificiale introduce necessariamente la possibilità di connessioni casuali, una certa ‘libertà’ che fa la differenza con i semplici computer.

Fin dal momento in cui Alan Turing, il padre dei moderni computer, creò l’omonimo test (l’obiettivo del quale era trovare il momento in cui non si sarebbe stati più in grado di distinguere le risposte fornite da un essere umano piuttosto da quelle fornite da una macchina), fin da quel momento è iniziata la corsa per liberarsi dall’obbligo del controllo umano.
Non è il caso di tornare al luddismo (1) oppure ad una paranoica paura della tecnologia e dei robot.

Il pericolo ora sta piuttosto nelle intenzioni umane che decideranno se prevarrà l’Intelligenza Artificiale o la Stupidità Artificiale. Solo umanizzando i valori della società potremo portare la tecnologia nella giusta direzione.

 

(1) Luddisti: i tessitori che, nell’Inghilterra del XIX secolo, distrussero i telai meccanici appena inventati, per proteggere il loro lavoro.

Traduzione dall’inglese di Giovanni Succhielli

 Qui l'articolo originale sul sito del nostro partner

foto: qui

Commenti all'articolo

  • Di pv21 (---.---.---.168) 6 agosto 2017 12:41

    Quale futuro >

    Lo stesso tipo di rischio si può paventare per i missili a testata nucleare.

    Non è certo una novità che i relativi sistemi di gestione-controllo sono suscettibili di attacco o “malfunzionamento”. Oppure che basta un pulsante per scatenare l’inferno.


    Nel merito.

    La minaccia reale è quella di un dotato “genialoide” che voglia sentirsi padreterno tramite le sue macchine.

    Da cui il “sogno” di realizzare robot capaci di reagire e di decidere in autonomia. Delle copie dotate di propria logica e di una sorta di “libero arbitrio” governato da chip e sensori.

    (Nota: quali “completi” alterego dovrebbero però anche essere dei mortali come noi).


    Sintesi. Unica vera “trappola” sono i Peccati di Presunzione di chi …

Lasciare un commento

Per commentare registrati al sito in alto a destra di questa pagina

Se non sei registrato puoi farlo qui


Sostieni la Fondazione AgoraVox


Pubblicità




Pubblicità



Palmares

Pubblicità