Nascosti nell'ombra: i moderatori dei giganti del web vivono l'inferno

Shutterstock VPN Image2
© Shutterstock

I giganti della tecnologia sono spesso ammirati, a volte addirittura elevati a semi-divinità dai loro fan(atici) più fedeli, ma contrariamente a quanto piace loro farci pensare, non hanno un potere assoluto. A dire il vero, in termini di moderazione, il loro potere è molto limitato. Nell'ombra, i loro "poliziotti virtuali" si occupano di moderare ciò che viene messo online.

Perché moderare Internet?

Internet non è stato per caso creato per essere una piattaforma di scambio dove la libertà di espressione è la parola chiave, ognuno può dire quello che vuole? Questo è ciò che è diventato, senza dubbio, ma non è esattamente ciò che dovrebbe essere.

La libertà di espressione, e la libertà di opinione ad essa associata, rappresentano un diritto universale garantito dai diritti umani, pietra angolare di tutte le democrazie. Tuttavia, come tutte le libertà, essa è soggetta a determinati limiti: la Corte europea dei diritti dell'uomo consente a ciascuno stato di fissare tali limiti in funzione della protezione degli individui (specialmente della loro reputazione) e dell'interesse pubblico (in particolare la sicurezza nazionale, ossia la lotta contro il terrorismo).

Anche se spesso lo dimenticano, gli internauti non possono dire tutto quello che vogliono perché su Internet si applicano le leggi del paese. Ad esempio su YouTube è necessario rispettare non solo l'informativa sulla privacy di YouTube, ma anche la legge italiana. Quindi la domanda è: chi fa parte del corpo di polizia di Facebook, Google & Co? Dobbiamo tenere presente che si tratta di aziende private, quindi questo complica ancora di più le cose, lo stato non ha il potere di intervenire direttamente sopprimendo ciò che non vuole vedere.

I governi hanno stipulato accordi con i giganti della tecnologia per garantire il rispetto delle leggi locali, cosa che non si è rivelata sempre facile perché la mancanza di comunicazione tra le due parti in causa ha inizialmente portato al blocco di Facebook in alcuni paesi, tra cui la Turchia. Al di là del problema della moderazione, gli stati cercano soluzioni ai problemi tecnologici moderni (dipendenza dai social network, per citarne solo uno). A questo proposito, il segretario di Stato per gli affari digitali, Mounir Mahjoubi, ha affermato che si potrebbe creare una legge per aiutare i cittadini francesi colpiti da questa situazione.

Come funziona la moderazione?

La moderazione su Internet (Google, Facebook, Twitter, ecc.) può essere eseguita in due modi: la prima avviene utilizzando l'Intelligenza Artificiale, la seconda con il supporto di team specializzati (umani). Qui, non si tratta di una macchina che sostituisce l'uomo, ma di un lavoro complementare. "Un algoritmo non può farlo", confida uno dei moderatori alla telecamera di ARTE in un documentario realizzato dal canale. Il loro lavoro? Sopprimere tutto ciò che è contrario alle regole della loro azienda (e ai diritti umani): lavoro minorile, sessualità, terrorismo, molestie online, ecc.

AndroidPIT shutterstock 558278971 Facebook
Ci lamentiamo della mancanza di reattività di Facebook nel moderare, ma senza i moderatori sarebbe ancora peggio. © shutterstock, AndroidPIT

Chi sono queste persone? Da dove vengono? Sono domande a cui è difficile rispondere perché questi misteriosi dipendenti generalmente si rifiutano di parlare di sé stessi e rimangono nell'ombra (per la loro sicurezza personale, tra l'altro). Il documentario di ARTE racconta che Facebook si avvale di società terze per moderare il suo network. Anche se ci sono uffici ovunque (soprattutto a Berlino e Parigi), ARTE ha visitato quello nelle Filippine dove i dipendenti si recano ogni giorno per moderare i contenuti. Mentre alcuni sono felici di avere un lavoro che permette loro di guadagnarsi da vivere, molti sono anche riluttanti perché affrontano il peggio che si può trovare su Internet. Gli psicologi del lavoro hanno dimostrato che esiste un parallelo tra il trauma vissuto da questi moderatori e quello dei soldati in guerra.

Le loro giornate consistono nell'approvare o rifiutare messaggi, foto o video. Che siano segnalati dagli utenti o rilevati dall’Intelligenza Artificiale, questi contenuti devono essere verificati da un moderatore che deciderà se possono rimanere online. I moderatori sono specializzati in una disciplina che generalmente richiede loro di visualizzare foto o video difficili da sopportare. Non ci sbagliamo, il loro lavoro non consiste solo in un processo decisionale, ma anche nella memorizzazione di molti elementi per poter eseguire un lavoro di qualità (per esempio, le bandiere e gli slogan dei vari gruppi terroristici).

"Mi licenzio, devo smettere perché la situazione sta degenerando"

La prima difficoltà per i moderatori è quella di essere psicologicamente/emotivamente forti per sopportare gli orrori che vedono quotidianamente. "Orrori" è in realtà solo un eufemismo: torture, stupri, scene di incredibile violenza, pedofilia, questi sono alcuni esempi degli scenari che incontrano regolarmente. Inoltre, naturalmente, si aggiungono innumerevoli problemi di razzismo, omofobia, ecc.

Gli eventi in diretta a volte possono essere molto problematici. Se un moderatore assiste a un suicidio in diretta, non può intervenire, può solo tagliare il video in diretta / cancellare il video quando l'immagine mostra una persona morta. Questo è piuttosto paradossale perché i ritmi sono generalmente molto elevati (10 secondi per prendere una decisione) mentre in diretta devono aspettare una scadenza che nessuno vuole vedere.

"Ci si mette nella posizione di schiavi ma bisogna essere consci del fatto che tutto ciò non è accettabile” Moderatore anonimo

L'altro grande problema per i moderatori è l'incredibile pressione sulle loro spalle. "Non è un lavoro facile", dice uno dei dipendenti, perché il minimo errore può "costare una vita o molte, scatenare una guerra, causare molestie o portare al suicidio". Infatti, anche alcuni moderatori, emotivamente esausti e caduti in depressione, ricorrono al suicidio.

Molti problemi nel concetto

È interessante notare che da una piattaforma all'altra i contenuti possono non subire lo stesso destino. Ad esempio, un'immagine può essere considerata allo stesso tempo una minaccia o una satira. Nicole Wong, ex dipendente (di alto livello) di Google e dell'amministrazione politica di Barack Obama, ha spiegato che la moderazione è talvolta molto delicata. Ha fatto l'esempio dei video di Saddam Hussein, uno che mostra la sua impiccagione e l'altro che mostra la sua morte, YouTube aveva allora deciso di vietare solo il secondo perché "non c'era bisogno di mostrarlo" mentre il primo poteva essere conservato in una prospettiva storica.

Uno dei moderatori ha dichiarato che "il più grande errore che si può commettere è quello di tenere le immagini nude". Questa concezione molto americana / puritana del mondo è forse il problema per cui l'odio ha preso piede. Ad esempio, con il pretesto della libertà di espressione molti neonazisti possono esprimere i loro ideali e sono sempre più numerosi. Naturalmente,Facebook non è la causa dei problemi, piuttosto lo strumento, comunque non può essere addotta come scusa.

“Sui social network le persone si emozionano facilmente, credono di capire un argomento basandosi su semplici brandelli d’informazione” Ed Lingo -giornalista

Un ex dirigente di Facebook ha parlato della mentalità della Silicon Valley: "Non si dà voce agli aspetti negativi". Struzzi, insomma, che preferiscono mettere la testa sotto la sabbia e aspettare che l'Unione Europea venga a disturbarli. Facebook è un'azienda che ha molta esperienza in termini di informatica, prodotti, infrastrutture, esperienza utente, ma non ha competenze editoriali o di copyright. Oggi la politica è onnipresente su Internet, soprattutto su Facebook e Twitter, quindi dobbiamo trovare soluzioni reali.

L'aspetto più tragico è che questi giganti (e specialmente Facebook) possono fare grandi discorsi che non hanno altri interessi se non quello di permettere loro di sentire il suono della loro voce, ma il problema non smette di aggravarsi. Peggio ancora, viene amplificato secondo questo ex dipendente: "Ciò che funziona è il sentimento di indignazione. Facebook attira più persone con contenuti oltraggiosi che rimuovendoli", "Facebook contribuisce a diffondere l'odio.

Vai al commento (0)
Benoit Pepicq

Benoit Pepicq
Redattore

Benoit è un appassionato di nuove tecnologie e di tutto ciò che riguarda l'informatica. Grande fan di Android dal 2011, Benoit si è aggiunto al team di AndroidPIT per condividere le sue passioni e le sue esperienze Android con i lettori.

Guarda tutti gli articoli
Ti è piaciuto l'articolo? Per favore, condividilo!
Articolo successivo
Nessun commento
Commenta la notizia:
Tutte le modifiche verranno salvate. Nessuna bozza verrà salvata durante la modifica
Commenta la notizia:
Tutte le modifiche verranno salvate. Nessuna bozza verrà salvata durante la modifica