• AgoraVox su Twitter
  • RSS
  • Agoravox Mobile

 Home page > Tribuna Libera > Uomini e bot: i follower di Grillo e la strage di Denver

Uomini e bot: i follower di Grillo e la strage di Denver

Parli di «determinismo tecnologico», e sembra una nozione astratta. Di quelle che, in soldoni, non significano nulla al di fuori dei circoli accademici: senza impatto sulla vita reale. Poi nel giro di poche ore ne riconosci i contorni nel modo in cui vengono interpretati due fatti di natura completamente diversa, e non ti resta che immaginare in che modo questa stortura del pensiero – per cui sarebbe la tecnologia a decidere dei nostri destini, costringerci ad agire in un certo modo o dirimere questioni che a noi umani sono precluse; insomma, a venire prima dell’uomo – potrebbe non avere conseguenze pratiche.

Il primo è lo studio che dimostrerebbe che più di metà dei follower di Beppe Grillo sia «probabilmente» un bot, e non un umano. Il secondo, la strage alla prima di The Dark Knight Rises a Denver. Nel primo caso, non ci sono soltanto dubbi metodologici (cosa giustifica, per esempio, l’inferenza ‘Il 54,4% del campione casuale di 20 mila follower di Grillo da me studiato è probabilmente un bot e non un umano, quindi la stessa percentuale vale sul totale della popolazione, cioè 600 mila follower?), ma anche e soprattutto ontologici, come mi ha fatto notare Matteo Pascoletti – e come argomenta un bel pezzo di Riccardo Puglisi su Linkiesta: come è possibile pensare che, se non ci riesce un essere umano, un algoritmo sia in grado di distinguere un bot da un utente in carne e ossa? Si prenda l’esempio fornito dall’esperienza, limitata ma significativa, di Caterina Policaro. Che dimostra molto concretamente che ci siano umani che non si comportano come tali, e secondo le categorie dello studio. Come quantificare quanti siano, su un profilo da 600 mila follower? Soprattutto, come incorporarlo in un algoritmo? Mistero. Molto chiaro è invece l’assunto: la tecnologia decide se x è uomo o macchina. Che il dubbio che sia una premessa errata – o anche, un orrore ontologico – non abbia nemmeno sfiorato il professor Camisani Calzolari, autore della ricerca, la dice lunga sul grado di sudditanza psicologica dell’uomo alla macchina raggiunto perfino in ambienti accademici. Eppure è questa premessa metafisica a inficiare dalle fondamenta l’impalcatura malamente eretta nello studio.

Uscendo dai confini dell’accademia, lo stesso ragionamento si può applicare al commento a caldo di Gad Lerner alla strage di Denver. Cosa lega i massacri di Utoya, Bulgaria e Colorado? Lerner non ha dubbi: «Il denominatore comune si trova nella tecnologia che rende facile perpetrare una strage e ti consente di immaginarla prima, pianificandola su uno schermo in cui crei la tua realtà virtuale, proprio come ha fatto il norvegese Breivik». Insomma, «Il videogioco degli omicidi di massa», scrive Lerner, come se a uccidere non fossero stati individui in carne e ossa ma i loro avatar, usando joystick e non fucili. E come se fosse in qualche modo la tecnologia a decidere per l’assassino: lo ha potuto visualizzare, ne ha potuto definire i contorni in un contesto ludico, quindi la tecnologia è quantomeno corresponsabile del massacro – a prescindere dagli inesistenti riscontri scientifici sul legame tra violenza e videogiochi violenti. Niente di molto dissimile dall’attenzione sproporzionata ottenuta sui giornali italiani dall’ipotesi – subito sfumata – che voleva l’assassino indossasse la maschera del nemico di Batman, Bane (che sia colpa dei fumetti, dunque?).

Lo chiamo «determinismo tecnologico», perché mi sembra la formula più efficace. Ma, più in generale, si potrebbe chiamare «ricerca del capro espiatorio». O «del Salvatore», a seconda delle circostanze. Il meccanismo è lo stesso: non mi riesce con le mie sole forze, ma sono «ragionevolmente» certo che ci riuscirà la macchina; non l’avrei fatto con il mio solo giudizio, ma l’autorità della voce della macchina mi ha convinto che, tutto sommato, non avevo scelta. Non c’è solo il sensazionalismo mediatico, dunque: c’è anche un deficit di scetticismo – di sano scetticismo – nei confronti della macchina. E di fiducia, che si traduce in assunzione di responsabilità quando sia tradita, nei nostri.

Questo articolo è stato pubblicato qui

Lasciare un commento

Per commentare registrati al sito in alto a destra di questa pagina

Se non sei registrato puoi farlo qui


Sostieni la Fondazione AgoraVox







Palmares