Perché ci piace litigare sui social media? Lo studio su Nature: analizzati 500 milioni di commenti in 34 anni

L'analisi del Centro per la Data Science della Sapienza di Roma coordinata da Walter Quattrociocchi: «L’ecosistema dei social ha una forte resilienza alla tossicità. Le ricadute sulle prossime elezioni potrebbero essere rilevanti»

Perché ci piace litigare sui social media? Lo studio su Nature: 500 milioni di commenti in 34 anni

Prendete un gruppo di persone e mettetelo in una stanza. Se tra di loro c’è qualcuno che ha voglia di litigare inizierà a farlo, provocando gli altri e le altre con commenti spiacevoli.

Se questa stanza non è fisica, ma è online, ed è un social media, potete stare certi che la lite ci sarà, continuerà e coinvolgerà a diversi livelli tutti i presenti, indipendentemente da quanto e come si alzano i toni e dal social e dall’algoritmo che sta mediando gli scambi.

Ed è sempre stato così, dall’antesignano dei forum Usenet (classe 1979) a Facebook e YouTube, senza che interventi e modifiche degli sviluppatori o norme, regolamenti o nuovi modelli di business abbiano contribuito a cambiare o migliorare la situazione.

Benvenuti, buon risveglio: forse il «problema» siamo noi, non le piattaforme. O meglio: è il modo in cui noi reagiamo alle e sulle piattaforme.

È quanto emerge da uno studio pubblicato su Nature e coordinato da Walter Quattrociocchi, ordinario di Data Science and Complexity a La Sapienza di di Roma, sulla tossicità delle conversazioni online.

Gli autori e le autrici dello studio (oltre a Quattrociocchi: Michele Avalle, Niccolò Di Marco, Gabriele Etta, Emanuele Sangiorgio, Shayan Alipour, Anita Bonetti, Lorenzo Alvisi, Antonio Scala, Andrea Baronchelli, Matteo Cinelli) hanno analizzato 500 milioni di commenti pubblicati su otto piattaforme (Facebook, Gab, Reddit, Telegram, Twitter, Usenet, Voat e YouTube) nel corso di 34 anni.

Come spiega Quattrociocchi, era necessario allargare il campo d’analisi perché «studiando i social abbiamo raggiunto un plateau: si trovano sempre le stesse cose e si giunge sempre alle stesse conclusioni. Era arrivato il momento di domandarsi quale sia il reale effetto degli algoritmi e quanto, invece, sia la componente umana a governare certe dinamiche».

La risposta, come si legge nello studio, è che «la tossicità non è un deterrente al coinvolgimento degli utenti né un amplificatore del coinvolgimento. Piuttosto, tende a emergere quando gli scambi diventano più frequenti e può essere un prodotto della polarizzazione delle opinioni».

Polarizzazione (l'estremizzazione delle opinioni) che, si legge nel passaggio successivo, «potrebbe avere un ruolo più cruciale della tossicità nel plasmare l'evoluzione delle discussioni online». E questo è utile da sapere quando si ragiona su possibili soluzioni.

Quindi: che qualcuno se ne esca nei feed con un commento «maleducato, irrispettoso o irragionevole che potrebbe indurre le persone ad abbandonare una discussione» - che è la definizione di commento tossico dell’API Perspective di Google, lo strumento (tecnicamente si può definire “algoritmo di classificazione”) utilizzato nello studio - non avrà un impatto sulla durata e le dimensioni della conversazione e, al contrario di quanto recita la definizione stessa, non induce ad abbandonare lo scambio.

«A fronte di una comunicazione tossica nella quale in cui cominciano ad apparire commenti pesanti in grado in teoria di stroncare una conversazione, invece le conversazioni non si arrestano ma vanno avanti, dimostrando che l’ecosistema dei social ha una forte resilienza alla tossicità. Tutti questi elementi uniti alla persistente polarizzazione online - a sua volta profondamente legata alla tossicità del linguaggio, tanto da esserne un fattore predittivo – ci fanno immaginare che le ricadute sulle risultanze elettorali dei prossimi mesi in giro per il mondo potranno essere rilevanti. Ecco perché come Centro per la Data Science abbiamo istituito un osservatorio per monitorare l’andamento dei prossimi appuntamenti elettorali a livello globale – Italia, Usa, India etc. - così da studiare i pattern delle comunicazioni relative e da comprendere quali delle dinamiche emerse nel nostro studio toccheranno il voto» spiega Quattrociocchi.

Che fare, guardando ai prossimi 34 anni e oltre? Troveremo il modo di non metterci a discutere in qualsiasi gruppo o sotto qualsiasi post? «Nella ricerca abbiamo sottolineato la necessità di approcci più sofisticati per esplorare le dinamiche sociali online. Più specificamente, per quanto riguarda la moderazione dei contenuti, gli approcci devono considerare le complesse dinamiche del coinvolgimento degli utenti e la natura multiforme della tossicità online».

Nella pratica, dice lo studio, si tratta di prendere in considerazione anche altri fattori che possono influenzare la tossicità della conversazione in relazione all’engagement, «come l'argomento specifico» di cui tratta, «la presenza di utenti influenti o di "troll", l'ora e il giorno in cui viene pubblicato il messaggio e aspetti culturali o demografici, come l'età media degli utenti o la posizione geografica. Inoltre, anche se gli utenti estremamente tossici sono rari, la relazione tra partecipazione e tossicità di una discussione può essere influenzata anche da piccoli gruppi di utenti altamente tossici che guidano le dinamiche della conversazione». 

20 marzo 2024 ( modifica il 20 marzo 2024 | 17:29)

- Leggi e commenta