Fake News: un mercato ancora alla ricerca di un meccanismo correttivo condiviso

Disinformazione e collocazione del brand in contesti errati possono generare attacchi a cascata alla reputazione di persone ed aziende.

Nell’era dell’Industria 4.0 e dell’Intelligenza Artificiale, oggi le macro aree di rischio aziendale per un risk manager non riguardano più soltanto impianti e macchinari - per i quali la sensoristica per la manutenzione predittiva ha aiutato ad anticipare un elevato numero di problematiche andando a monitorare i disfunzionamenti “a monte” - ma si sono decisamente spostate verso il “cyber”, sia in un’ottica di maggior sicurezza richiesta all’interno del sistema azienda che soprattutto in una di verifica del flusso informativo, sempre più veloce e incontrollato.

“A seguito del verificarsi di eventi considerati largamente improbabili dai media tradizionali, come i recenti risultati elettorali a favore dell’elezione di Trump e del referendum pro-Brexit, si è diffusa la teoria che l’opinione pubblica possa essere stata guidata da un flusso pilotato di notizie fuorvianti via web e social network” dichiara Alessandro De Felice, Presidente di ANRA. “A prescindere dall’effettivo impatto imputabile alle fake news, è impossibile negare che una delle principali minacce globali ad oggi sia rappresentato dalla disinformazione o mala-informazione. Numerose evidenze dimostrano come in un mondo connesso 24 ore al giorno, un alto numero di informazioni non verificate possano andare a colpire persone, aziende ed istituzioni in ambito economico o sanitario.”

I ricercatori, le aziende tecnologiche e i fact-checker di tutto il mondo sostengono che la minaccia causata dalla diffusione della disinformazione non può essere sottovalutata. Come spiega Paul Resnick, professore all’Università del Michigan in un recente articolo apparso su BBC News, la differenza oggi è nel “come” otteniamo le nostre informazioni: internet ha dato un megafono a molte voci che in precedenza venivano bloccate da un collo di bottiglia che controllava quello che sarebbe stato distribuito. Inizialmente in prospettiva molte persone erano entusiaste di questa apertura ad un maggior pluralismo, ma ora stiamo notando come alcune di quelle voci stiano iniziando a dire cose che non ci piacciono ed è subentrata preoccupazione su come possiamo controllare la diffusione di notizie che sembrano false.

C’è quindi un forte bisogno di un nuovo modo per decidere cosa sia affidabile, e il problema coinvolge anche le fonti dell’informazione: il Daily Mail è stato una fonte di notizie di fiducia per molte persone da decenni nel Regno Unito, ma i redattori di Wikipedia hanno recentemente votato per smettere di utilizzarlo come fonte di riferimento per i propri articoli giudicandolo come "generalmente inaffidabile". Eppure la stessa Wikipedia - che può essere modificata da chiunque ma utilizza squadre di redattori volontari per eliminare le imprecisioni - è ben lungi dall'essere perfetta. Le informazioni inesatte sul sito dell’enciclopedia online sono numerose e richiedono un controllo attento per chiunque desideri usarla come fonte.

“La sovraesposizione a qualsiasi fonte di notizia (vera o meno) rende il processo di informazione oggi qualcosa di diverso dalla ricerca della verità, trasformandolo in qualcosa più affine alla ricerca e alla conferma di opinioni già in proprio possesso” aggiunge Alessandro De Felice. “I mediatori classici non vengono più considerati come tali ed ogni fatto può avere una controprova online con lo stesso grado di credibilità, creando un corto circuito informativo”.

Per coloro che si trovano dietro le fake news, la capacità di condividerle ampiamente sui social media significa avere accesso ad una grossa fetta di ricavi pubblicitari provenienti dai clic. Si è scoperto che molte fake news riguardanti le elezioni politiche americane proveniva da una piccola città nella ex Repubblica Yugoslava di Macedonia (Veles) dove alcuni giovani avevano costruito uno schema per guadagnare soldi facili, pagando Facebook per promuovere i loro post e poi raccogliendo i premi dell’enorme numero di visite sui propri siti web creati ad arte.

I giganti delle tech company affermano di avere preso a cuore il problema, lavorando sulla precisione dei propri algoritmi in modo da tenere conto della fonte al momento di mostrare i risultati delle ricerche e aiutando le organizzazioni di fact checking come Full Fact, che sta sviluppando nuove tecnologie capaci di identificare e correggere in tempo reale anche i “falsi proclami” provenienti da dichiarazioni pubbliche. Un altro approccio potrebbe essere quello di condizionare i motori di ricerca in modo da proporre informazioni conflittuali con la visione del mondo di un utente sulla base delle sue ricerche. Allo stesso modo i retailer online potrebbero consigliare film e libri che forniscono un punto di vista alternativo ai prodotti che una persona acquista normalmente, portando le persone al di fuori della propria comfort-zone ed evitando una radicalizzazione del pensiero all’interno di vere e proprie bolle. A livello di tutela del marchio dai rischi dell’accostamento a fonti di “disinformazione”, recentemente Vodafone, uno dei maggiori investitori in pubblicità al mondo, ha dato un giro di vite alle fake news e al materiale estremista per proteggere il marchio, in passato affiancato a materiale che viene definito “assolutamente contrario" a "valori e credenze aziendali”.

Per poter partecipare a future campagne pubblicitarie di Vodafone infatti, i network online, tra cui Google e Facebook, dovranno posizionare la propria pubblicità esclusivamente in mercati che abbiano ottenuto una precedente approvazione, vale a dire dove viene assicurata la bassissima probabilità di reperire materiale incentrato su fake news o di incitamento all’odio. Eric Schmidt, presidente dell'azienda Alphabet, società madre di Google, ha ammesso in una recente intervista sul Telegraph che gli algoritmi e le blacklist utilizzate non sono in grado di proteggere completamente i marchi dal materiale estremista. Google insomma "non può garantirlo, ma può andarci molto vicino". Ma questo approccio genera altrettanti comprensibili dubbi sul tipo di controllo delegato ai giganti del Web in grado di filtrare ciò che la gente vede: gli algoritmi - così come i controllori umani - non possono avere una capacità di giudizio perfettamente neutrale.

Sempre all’interno dell’articolo di BBC News, Alexios Mantzarlis, direttore dell’International Fact-Checking Network afferma di ritenere che la soluzione risieda nell’aggiungere livelli di credibilità alle fonti stesse, creando un database pubblico di fonti utilizzate dai fact-checker per dare la possibilità agli utenti di capire in autonomia il grado di veridicità della notizia. Insomma nuove politiche che fanno segnare, anche se in parte, un ritorno ai “vecchi tempi” in cui i lettori tornano ad attribuire un elevato livello di fiducia ad un numero ristretto di fonti e in cui le aziende conoscono in anticipo la testata ed il contesto all’interno del quali sarà ospitato il proprio brand.

Vota l'articolo:
4.00 su 5.00 basato su 2 voti.  

© Foto Getty Images - Tutti i diritti riservati

  • shares
  • +1
  • Mail

I VIDEO DEL CANALE NEWS DI BLOGO