Back
Facebook

Storia di un algoritmo

Algoritmo. Una definizione generale spiega che si tratta di un “procedimento che risolve un determinato problema attraverso un numero finito di passi elementari in un tempo ragionevole”. Quando sul web non troviamo corrispondenza a quanto ci aspettiamo o al contrario un risultato ci soddisfa siamo soliti dire “E’ stato l’algoritmo”. Messa così è semplicistico e banale perchè l’algoritmo sappiamo bene che domina ricerche, risultati e soprattutto hanno provato a spiegarci come possa essere la spiegazione dietro al proliferare di contenuti e post di carattere violento, razzista, sessista en quant’altro di orribile su Facebook. Siamo in un argomento di attualità esploso questa settimana e che ha a che fare con i diritti umani di persone singoli, gruppi etnici, politici, religiosi ed altro che subiscono offese, insulti ed altro di così condizionante da portare ad estreme conseguenze in qualche caso. Oltre alla diffusione clamorosa di fake news, notizie false.

Cioè hanno tentato di dirci – quelli di Facebook – che si trattava di una questione matematica se certi post avevano più “click” o like di altri, o addirittura incoraggiavano altri utenti a scriverne di simili. Non è così. Dietro l’algoritmo che certamente svolge la sua funzione matematica, ci sono due o tre, secondo i casi, persone fisiche che indirizzano gli algoritmi del social media blu in un senso o in un altro.

Come lo sappiamo? Quelli bravi diranno che era facile capirlo. Noi più semplicemente già nel 2018 avevamo registrato qui i primi segnali di allarme, con Mauro Pasquini. Ma quelli del Washington Post, come altre testate internazionali, nello specifico Will Oremus, Chris Alcantara, Jeremy B. Merrill e Artur Galocha con la collaborazione di Kate Rabinowitz hanno avuto accesso ai Facebook Papers: i documenti nei quali si svela l’atteggiamento della creatura di Mark Zuckeberg nel contenere la disinformazione e l’incitamento all’odio e alla violenza, vuoi per carenza di mezzi tecnici, vuoi per non danneggiare i profitti che derivano dall’attività di aziende e persone che operano sul social media. Quel che ne esce fuori nell’articolo “How Facebook shapes your feed” e che di seguito riassumiamo, è inquietante.

Facebook

@piqsels.com-id-jfqwf

Il riassunto dell’articolo del Washington Post

Facebook è sotto i riflettori grazie alle ondate di rivelazioni dei Facebook Papers e alla testimonianza della whistleblower (informatrice) ed ex dipendente Frances Haugen, che sostiene che è al centro dei problemi dell’azienda.

Mentre la frase “l’algoritmo” ha assunto toni sinistri, persino mitici, è, al suo livello più elementare, un sistema che decide la posizione di un post nel news feed in base alle previsioni sulle preferenze e tendenze di ogni utente. I dettagli del suo design determinano quali tipi di contenuti prosperano sul più grande social network del mondo, e quali tipi languono – che a sua volta modella i post che tutti noi creiamo, e i modi in cui interagiamo sulla sua piattaforma.

Facebook non rilascia dati completi sulle proporzioni effettive dei post nel feed di un dato utente, o su Facebook nel suo complesso. E il feed di ogni utente è altamente personalizzato in base ai suoi comportamenti. Ma una combinazione di documenti interni di Facebook, informazioni disponibili pubblicamente e conversazioni con gli addetti ai lavori di Facebook offre uno sguardo su come diversi approcci all’algoritmo possono alterare drasticamente le categorie di contenuti che tendono a prosperare.

Quando Facebook ha lanciato il News Feed (Flusso di informazioni), nel 2006, era abbastanza semplice. Mostrava una lista personalizzata di aggiornamenti delle attività degli amici, come “Athalie ha aggiornato la sua foto del profilo” e “James si è unito alla rete di San Francisco, CA”. La maggior parte era generata automaticamente; non c’era una cosa come un “post”, solo aggiornamenti di stato in terza persona, come “Ezra si sente bene”. A partire dal 2009, un algoritmo di classificazione relativamente semplice determinava l’ordine delle storie per ogni utente, assicurandosi che la roba succosa – come la notizia che un amico “non aveva più una relazione” – apparisse vicino alla cima.

Negli ultimi 12 anni, quasi tutto dell’algoritmo del news feed è cambiato. Ma il principio di mettere la roba succosa in cima – o almeno la roba più probabile che interessi un dato utente – è rimasto. L’algoritmo è semplicemente cresciuto sempre più sofisticato al punto che oggi può prendere più di 10.000 segnali diversi per fare le sue previsioni sulla probabilità di un utente di impegnarsi con un singolo post, secondo Jason Hirsch, il capo della politica di integrità della società”.

Facebook

@piqsels.com-id-jfesh

Le persone che indirizzano l’algoritmo

Eppure il sistema di classificazione dei news feed non è un mistero totale. Due elementi cruciali sono interamente sotto il controllo dei dipendenti umani di Facebook, e dipendono dal loro ingegno, dalla loro intuizione e, infine, dai loro giudizi di valore. I dipendenti di Facebook decidono da quali fonti di dati il software può attingere per fare le sue previsioni. E decidono quali dovrebbero essere i suoi obiettivi – cioè, quali risultati misurabili massimizzare, e l’importanza relativa di ciascuno.

Una marea di documenti interni hanno offerto nuove informazioni su come Facebook prende queste decisioni critiche, e come pensa e studia i compromessi coinvolti. I documenti – rivelazioni fatte alla U.S. Securities and Exchange Commission e forniti al Congresso in forma ridotta dal consulente legale di Haugen – sono stati ottenuti e rivisti da un consorzio di organizzazioni di notizie, tra cui il Washington Post. Hanno focalizzato l’attenzione dei legislatori sull’algoritmo di Facebook e se esso, e simili algoritmi di raccomandazione su altre piattaforme, dovrebbero essere regolati.

Difendendo l’algoritmo di Facebook, il capo degli affari globali della società, Nick Clegg, ha detto alla ABC “This Week” all’inizio di questo mese che è in gran parte una forza per il bene, e che la rimozione delle classifiche algoritmiche avrebbe portato a “più, non meno” discorsi di odio e disinformazione nei feed della gente.

 

 

Questo progetto web utilizza la tecnologia 'cookies' per migliorare l'esperienza generale del Sito. I Cookies sono piccoli file testuali mantenuti sul proprio computer o dispositivo. Ci permettono di assicurarti la miglior esperienza di navigazione possibile e di capire come utilizzi il nostro sito. Questo messaggio di avviso ti viene proposto in base alle nuove normative sui diritti utenti nelle comunicazioni e servizi web, sui dati personali e la protezione della privacy. Privacy policy

Questo progetto web utilizza la tecnologia 'cookies' per migliorare l'esperienza generale del Sito. I Cookies sono piccoli file testuali mantenuti sul proprio computer o dispositivo. Ci permettono di assicurarti la miglior esperienza di navigazione possibile e di capire come utilizzi il nostro sito. Questo messaggio di avviso ti viene proposto in base alle nuove normative sui diritti utenti nelle comunicazioni e servizi web, sui dati personali e la protezione della privacy.

Chiudi Popup