Invece sì, riguarda anche te (e più di quanto credi)
Avere la capacità di districarci tra reti VPN, proxy e altri aggeggi non ci mette al sicuro più di un piattino sotto la pioggia.
In parecchi, dopo l’articolo su “The social dilemma”, hanno elencato una serie di soluzioni impraticabili (tornare all’Internet del 2000) oppure personali: installo questo plugin, evito di usare questo browser, mi informo solo tramite, non metto like né condivido, etc.
Pur non essendo una persona competente o tecnologica anch’io cerco di tutelarmi chiedendo consigli, informandomi, evitando certe cose. Purtroppo è come andare sotto la pioggia e mettersi un piatto in testa; forse una minuscola parte del cranio rimarrà asciutta, ma il problema è tutto attorno a noi.
Sicuramente fa piacere sentirsi speciali perché non abbiamo pubblicità su Youtube o nei siti che visitiamo, e c’è senz’altro dell’autocompiacimento nel saper riconoscere siti affidabili e informazioni verificabili. Ma nel lungo periodo è irrilevante. Lasciate perdere le pubblicità: i punti critici di cui parla The social dilemma sono manipolazione e disinformazione.
L’intelligenza artificiale non ha coscienza né morale: è stupida. Non è Skynet, è un algoritmo creato allo scopo di profilare una persona nel modo più accurato possibile, così da poterne prevedere i comportamenti, le opinioni e le intenzioni. Una volta capito se una persona è un fagiolo, un mirtillo o un chicco di mais viene infilato nel barile apposito. Poi arrivano i clienti (politici e aziende) che domandano: “Io vendo mangime per cani, mi dai 10,000 animalisti?”; “io vendo notizie di cronaca nera faziose, mi dai 50,000 razzisti?”; “io vendo letteratura woke, mi dai 50,000 di centrosinistra?” e via dicendo.
Perché un estremista è un imbecille alla stregua del fanatico religioso
Crede e difende ciecamente qualsiasi cosa provenga dalla sua setta, odia e combatte qualsiasi cosa sia al di fuori. Non ha spirito critico né ripensamenti: è, insomma, un utente affidabile che garantisce un risultato. Invece una persona sana di mente ha sfumature, contraddizioni, ipocrisie, dubbi, ripensamenti e poche certezze; è poco prevedibile. Non si può vendere, ancora. Per questo le opinioni pacate e moderate non hanno diffusione come le sceriffate da paese: sono materiale di scarto.
Quando l’algoritmo non riesce a capire se un utente è mais o mirtillo sceglie di metterlo nel barile che più gli assomiglia. Una volta lì comincia a manipolarlo nella direzione più facile.
Metti che l’utente risulti al 49% mais e al 51% mirtillo: verrà spinto lentamente, impercettibilmente, verso il mirtillo. Vedrà via via sempre più boschi, gli verranno suggeriti amici mirtilli e belle mirtille che postano storie di montagna, mentre il mais sparirà dalla sua vista finché l’utente si convincerà che al mondo il mais non esiste, e se c’è è velenoso. In base al numero di click, condivisioni, tempo impiegato sulle pagine e parole contenute nei commenti, l’algoritmo calcolerà se l’utente è arrivato a questa convizione; a quel punto lo infila nella cesta perché pronto alla vendita.
I social sono solo aziende di estremizzazione
Sono fatti apposta per trasformare i moderati in fanatici, perché solo quest’ultimi sono vendibili.
E ci riguarda in prima persona nei rapporti interpersonali, familiari, nella qualità della vita, nella professionalità e competenza di chi sta al governo. La formazione politica della società occidentale del 2020 è interamente affidata ad algoritmi di intelligenza artificiale, programmati per estremizzarci e isolarci da chiunque sia diverso da noi. È un meccanismo irreversibile. O mirtilli, o mais, o niente.
Chiunque pensi di essere fuori da questo meccanismo, sbaglia. Chi crede le cose cambieranno in meglio, sogna. Chi teme – o auspica – una guerra globale che ripristini l’ordine e/o il declino della democrazia, vive a Hollywood. L’unica cosa intelligente da fare è anche la più vecchia del mondo: adattarsi per sopravvivere.