SOCIAL BOTS E FAKE NEWS

I SOCIAL MEDIA 

Secondo il Global Digital Report 2019 di We Are Social[1], in collaborazione con Hootsuite, il 45% della popolazione mondiale utilizza le piattaforme di social media: ciò significa che circa 3,5 miliardi di persone si connettono ad Internet per condividere le foto del proprio gatto.

In media gli utenti trascorrono, quotidianamente, 6½ ore collegati. Il report ha infatti stimato che, nel 2019, la comunità digitale mondiale passerà, collettivamente, 1,2 miliardi di anni connessa ad Internet. Ed è proprio l’utilizzo dei social media l’attività che fa e farà consumare più tempo.

[1] https://wearesocial.com/global-digital-report-2019

Opinione pubblica e coscienza collettiva

Oltre ad offrire la possibilità di condividere con il mondo i propri pensieri più intimi, i social media rappresentano un’estensione del concetto di sfera pubblica, tradizionalmente concepita dal sociologo Jürgen Habermas come uno spazio virtuale dove l’opinione pubblica e la coscienza collettiva sono modellate ed alimentate dai mass media.

I social media – Twitter in particolare – hanno reso possibile la fusione di sfere pubbliche meramente locali o nazionali in reti globali, dando origine a movimenti sociali e politici come ad esempio il movimento femminista #MeToo. Fondamentale, inoltre, il ruolo dei social media nella Primavera Araba, una serie di insurrezioni che hanno portato ad un movimento di democratizzazione di vari paesi musulmani: le varie piattaforme, infatti, hanno contribuito all’organizzazione e al coordinamento dell’attività politica sia online che nelle strade.

Twitter

Tra le varie piattaforme di social media content, una delle più utilizzate globalmente è Twitter. Twitter non solo permette agli utenti di generare contenuto, è anche uno strumento di indubbia utilità per i ricercatori della SOCMINT (Social Media Intelligence), disciplina che si occupa dell’acquisizione ed analisi delle informazioni presenti sulle piattaforme di social media per molteplici scopi. Su Twitter, in particolare, è possibile rilevare intenti criminosi tramite la Sentiment Analysis (analisi del sentimento di fondo di un messaggio) o predire vari fenomeni in aree come la finanza (predizioni dell’andamento del mercato finanziario).

Il problema delle piattaforme pubbliche come Twitter è che, essendo l’accesso consentito a chiunque e non essendo esso validato, si pone il rischio che le informazioni condivise non siano autentiche. Il regolamento della piattaforma specifica il divieto di manipolazione della stessa tramite spam, come anche il divieto di interferire con l’integrità delle elezioni o di impersonare individui o organizzazioni[1]. Eppure, Twitter è uno dei veicoli più utilizzati per la condivisione di fake news e per la creazione di account falsi: la piattaforma stessa ne è consapevole, tanto da aver recentemente acquisito Fabula AI[2], una start-up londinese che utilizza tecnologie di graph deep learning per rilevare manipolazioni alla struttura network, con lo scopo di mettere a disposizione dell’utente solo le informazioni più rilevanti ed autentiche.

[1] https://help.twitter.com/it/rules-and-policies/twitter-rules

[2] https://blog.twitter.com/en_us/topics/company/2019/Twitter-acquires-Fabula-AI.html

 

Social Bots e Fake News

Nonostante le piattaforme di social media stiano adottando sempre più contromisure per combattere la diffusione di fake news e account falsi, il fenomeno persiste. Proprio recentemente Twitter ha segnalato di aver rimosso circa 2800 account di origine iraniana che adoperavano delle identità false ed interagivano con gli utenti inserendosi in conversazioni a tema sociale e politico riguardanti sia l’Iran che il mondo[1].

Gli account falsi possono essere gestiti da attori esterni con lo scopo di impersonare degli individui, ma possono anche essere automatizzati. In quest’ultimo caso, si tratta di social bot, ovvero di account automatizzati che usano gli stessi canali che usano gli esseri umani per comunicare, e interagiscono con gli altri utenti cercando di emulare e possibilmente influenzare il comportamento ed il pensiero degli utenti umani.

Su Twitter, come sulle altre piattaforme di social media, è possibile trovare social bot il cui obiettivo è diffondere informazioni utili e rilevanti. Un esempio può essere il bot @WhatTheFare[2], il quale fa una stima della tariffa di un viaggio con il servizio Uber basandosi su un tweet dell’utente interessato, contenente la meta di partenza e di destinazione. Purtroppo, la maggior parte dei bot che popolano Twitter, come anche le altre piattaforme, sono programmati con un obiettivo diverso.

Figura 2: Le bufale su Trump e Clinton più condivise su Facebook – AGI

 

I bot possono essere utilizzati per polarizzare le conversazioni di stampo politico, risultando come un pericolo per la democrazia. Troviamo i bot che praticano il following di massa dei politici, per aumentare la popolarità di questi ultimi, o i bot che promuovono certi partiti o pensieri politici diffondendo una grande quantità di informazioni o notizie (soprattutto false) a riguardo. Sono stati molti gli studi svolti attorno all’elezione presidenziale statunitense del 2016, con lo scopo di comprendere il grado di influenza esercitato dalla divulgazione delle fake news. Dall’analisi svolta dal professore Emilio Ferrara della Southern California University assieme ad altri ricercatori, risulta che circa 3,8 milioni di tweet pubblicati durante il periodo dell’elezione presidenziale, rappresentanti un quinto della conversazione totale, sono stati prodotti da bot e non da umani[3].

Figura 3: Titolo sensazionalistico pubblicato da Libero il 23 gennaio 2019

 

I bot vengono, in aggiunta, sfruttati per produrre e diffondere contenuto con l’intenzione di creare panico durante le emergenze o per danneggiare la reputazione di individui ed organizzazioni. A tal proposito, uno studio[4] condotto dall’azienda di threat intelligence Recorded Future, ha rilevato che, nel corso dell’ultimo anno, circa 215 account bot sono stati utilizzati per riciclare notizie di attacchi terroristici del passato, facendoli passare per nuovi eventi di cronaca. Gli account bot rilevati usavano tutti un particolare gruppo di URL shorteners (utilizzando servizi come Bitly o TinyURL) per tracciare gli utenti che effettivamente cliccavano sulle notizie false, probabilmente per analizzare le parole e/o immagini che attiravano di più l’attenzione. L’analisi condotta da Recorded Future non ha evidenziato un tentativo di monetizzazione da parte degli attori coinvolti, bensì ha ipotizzato che l’obiettivo primario fosse di diffondere paura nella comunità di Twitter. L’azienda ha rinominato questa strategia fishwrap, termine slang che indica una tipologia di giornalismo (cartaceo) così poco credibile tale da poter essere utile solo per incartare il pesce. Un po’ come Libero.

Inoltre, i bot vengono impiegati dagli spammers per condividere spam e contenuto malevolo, facendo following di massa nella speranza di essere a loro volta seguiti da molte persone. L’obiettivo è riuscire ad attirare gli utenti tramite del contenuto che può interessarli, per poi persuaderli a cliccare sui link integrati nei tweet. Una volta che l’utente ha cliccato sul link, il quale viene spesso accorciato per rendere il contenuto illeggibile, esso viene reindirizzato verso siti di phishing o contenuto malware.

[1] https://twitter.com/yoyoel/status/1133448387657736192

[2] https://twitter.com/whatthefare?lang=it

[3] https://m-cacm.acm.org/magazines/2016/7/204021-the-rise-of-social-bots/fulltext?mobile=true

[4] https://www.recordedfuture.com/fishwrap-influence-operation/

 

Contromisure

Riconoscere un social bot può essere, talvolta, un compito tortuoso, soprattutto a causa della continua evoluzione nel campo dell’intelligenza artificiale. In generale, un bot (non particolarmente avanzato) su Twitter presenta le seguenti caratteristiche:

  • Mancanza di contenuto originale e/o intelligente: un esempio può essere un account che retweetta il contenuto di altri account senza mai produrne di proprio, o i cui tweet sono molto simili tra di loro, se non duplicati;
  • Un’abbondante presenza di URL nei tweet: i link, come spiegato in precedenza, possono reindirizzare gli utenti verso contenuto spam;
  • Contenuto pubblicato ad intervalli troppo regolari o troppo brevi: per esempio, un account che pubblica 10 tweet al secondo;
  • Tweet che contengono parole e/o hashtag come offer, free, click, prize, debt, deal, credit e sex;
  • Mancanza della foto profilo e/o della biografia;
  • Utilizzo di tool automatizzati per la pubblicazione del contenuto;
  • Following e/o unfollowing di massa;
  • Rapporto tra following e follower molto alto o molto basso

Figura 4: Tweet dall’account di Donald Trump riguardante il certificato di nascita di Barack Obama

 

Da sempre è presente su Twitter il badge blu di account verificato, assegnato da Twitter stesso agli account di interesse pubblico, ovviamente dopo aver eseguito un’opportuna verifica. È quindi estremamente improbabile che un account avente il badge possa essere un bot, anche se dando un’occhiata al contenuto pubblicato da Donald Trump, non si direbbe.

È inoltre possibile consultare Botometer, un algoritmo presente online e sviluppato dall’Indiana University Network Science Institute (IUNI), in collaborazione con il Center for Complex Networks and Systems Research (CNetS), che attribuisce un punteggio all’account classificandolo come bot o umano. È necessaria l’autenticazione a Twitter.

Per quanto riguarda le fake news, distinguerle dalle notizie autentiche richiede prima di tutto un po’ di buon senso, in quanto la maggior parte delle notizie false presenta titoli sensazionalistici. Se invece si tratta di una notizia che potrebbe sembrare legittima, può essere utile controllare la fonte, l’autore e la data di pubblicazione, per comprendere quanto essa possa essere plausibile rispetto agli eventi attuali.

Figura 5: Infografica dell’International Federation of Library Associations

 

Per chi invece volesse mettere alla prova le proprie fake news detection skills, dei ricercatori dell’Università di Cambridge hanno sviluppato un browser game in cui i giocatori hanno la possibilità di manipolare le notizie ed i social media, avendo a disposizione strumenti come i social bot, le teorie complottiste, l’impersonation ed evidenze photoshoppate. I giocatori devono riuscire a mantenere un certo punteggio di credibilità per poter continuare a persuadere le loro vittime. Lo scopo del gioco è di riuscire a vaccinare i giocatori contro le fake news esponendoli ai metodi solitamente utilizzati per diffondere quest’ultime, permettendo loro di comprendere la maniera in cui vengono solitamente ingannati. Il gioco si basa sulla teoria dell’inoculazione, secondo la quale ci si può proteggere contro il condizionamento del pensiero venendo esposti a piccole dosi di esso, sviluppando così una sorta di immunità.

 

Scritto da STELLA ANDREA BARBERI

02 agosto 2019

Social Bots e Fake News ultima modifica: 2019-08-02T15:48:36+00:00 da admin

Post Correlati