//

Le fake news e i tecnoschiavi al soldo dei Social Networks

6 mins read

Chi sono i cosiddetti moderatori dei contenuti dei social media, i guardiani clandestini della rete: da Instagram a Twitter, da TikTok a YouTube? Una professione poco conosciuta, ma nevralgica, un mondo sconosciuto a molti di noi.

Tecnoschiavi o moderatori digitali?

«Siamo pagati una manciata di euro e passiamo la vita a ripulire Facebook dall’orrore».

Queste le parole di chi compie un lavoro essenziale, segreto e stressante, tra fake news, revenge porn e video raccapriccianti: quello di spazzino del web, colui che ripulisce ogni informazione non “politically correct” o ancor peggio palesemente “oscena” dalla rete.

Queste le parole contenute in una lettera inviata qualche tempo fa a Mark Zuckerberg e firmata da oltre duecento persone che lavorano alle principali piattaforme social del colosso di Menlo Park:

«Senza il nostro lavoro, Facebook sarebbe inutilizzabile. Il suo impero collasserebbe. I vostri algoritmi non sono in grado di distinguere tra giornalismo e disinformazione, violenza e satira. Solo noi possiamo»

Oggi è impossibile stabilire con certezza se una decisione di moderazione dipenda dall’intervento di un uomo o di una macchina. Imprescindibile, come è ovvio che sia, l’intervento umano. La grande dea Tecnologia, che cresce sempre di più, si arricchisce sempre di più, alla fine non può fare a meno dell’occhio attento di chi l’ha creata: l’uomo. Carne e ossa, sono necessarie mani che si prendano la briga di nascondere la spazzatura sotto il tappeto di questo enorme idolo su cui sono incollati gli occhi di miliardi di persone, compreso me in questo esatto momento. Un coltello può uccidere ma anche aiutarci a tagliare una cipolla, senza demonizzare nulla andiamo quindi avanti.

Raccolta indifferenziata

Certe sfumature di senso la tecnologia non riesce a coglierle e chissà se le capirà mai. I moderatori digitali sono uomini e donne senza competenze o specializzazioni specifiche, e di qualsiasi etnia ed estrazione: una manodopera assolutamente intercambiabile.

Per essere assunti, basta essere subito disponibili e “loggabili”, avere una connessione stabile. Il lavoro infatti è piuttosto semplice: filtrare ed eventualmente cancellare l’oggetto dei milioni di quotidiane segnalazioni anonime che arrivano dagli stessi utenti. Ma questa spazzatura da eliminare in cosa consiste esattamente?

Sono post e stories, foto e video ributtanti, immagini e clip pedopornografiche, messaggi d’odio e razzismo, account fake, bufale, revenge porn, cyberbullismo, torture, stupri, omicidi e suicidi, guerre locali e stragi in diretta.

Questo l’enorme caos che sfugge agli ormai sempre più umani algoritmi. Pensiamo per farci un’idea al crawler di Google, uno strumento sopraffino che è ormai al livello di una intelligenza umana e che serve a scansionare tutti i siti del web, catalogandoli e attribuendogli un punteggio in base alla qualità di contenuti e struttura percepita dall’algoritmo. Certo un prodigio della tecnologia, ma pur sempre mancante di un cuore che batte e di un cervello che pensa.

Quale il gioco quindi per mantenere questo mercato nascosto e allo stesso tempo potentemente attivo? Semplice, questo enorme meccanismo di filtro messo in piedi e sostenuto da mani e cervelli umani, stressati e sottopagati, viene attribuito alle macchine. Oltre al danno, la beffa…

Le testimonianze dirette

Uno dei tanti tecnoschiavi, Tarleton Gillespie, nel suo “Custodians Of The Internet” scrive: «Ero pagato dieci centesimi a contenuto. Per questa cifra ho dovuto catalogare il video di un ragazzo a cui era stato dato fuoco, pubblicato dall’Isis».

L’importante è correre: una manciata di secondi per stabilire cosa deve essere tolto di mezzo dai nostri newsfeed e timeline. Non c’è spazio per riflettere: un clic, elimina e avanti col prossimo. Questo ricorda molto il “glitch” di matrixiana memoria: quel momento in cui l’utente riesce a spiare dietro le maglie della Matrix e intravederne la struttura portante.

Un’ex moderatrice, Valera Zaicev, tra le maggiori attiviste della battaglia per i diritti di questa categoria, ha raccontato che Facebook conta persino i loro minuti di pausa in bagno.

«Il nostro team di revisione è strutturato in modo tale da fornire una copertura 24/7 in tutto il pianeta», ha dichiarato a The Atlantic Monika Bickert, responsabile globale delle policy di Facebook.

Per fare alcuni numeri, si parla di 100-150 mila moderatori, ma non è stato mai chiarito quanti di questi siano assunti a tempo pieno dalle aziende, e quanti ingaggiati su piattaforme esterne. Restando a Facebook, si oscilla così dai moderatori più tutelati e con un contratto stabile negli Usa (15 dollari circa all’ora di salario) ai 1600 occupati dall’appaltatore Genpact negli uffici della città indiana di Hyderabad, che avrebbero una paga di 6 dollari al giorno stando a quanto rivelato, tra gli altri, dalla Reuters.

«È un algoritmo a selezionarli su LinkedIn o Indeed attraverso offerte di lavoro volutamente generiche», ci dice Iacopo Franchi «è un algoritmo a organizzare i contenuti dei social che possono essere segnalati dagli utenti, è un algoritmo a pianificare le code di revisione ed è spesso un algoritmo a determinare il loro punteggio sulla base degli “errori” commessi e a decidere della loro eventuale disconnessione, cioè il licenziamento».

Into the Matrix

“La loro disconnessione…”, non vi ricorda nulla? Se si, allora avrete capito che non è più il futuro distopico quello presentato dal grande colossal hollywodiano del ’99, ma il presente che viviamo.

Il capo più autoritario e immediato di questo esercito di nuovi tecnoschiavi, è sempre l’algoritmo. Un’entità matematico-metafisica che non dorme, non si arresta mai. Qualcosa di non umano, ma che di umano ha tutto. Un paradosso insomma.

Si entra qui in un campo etico e morale che spinge al limite il nostro orizzonte mentale, ma forse ancora di più ci mette davanti ad un grande bivio che, come tutti i bivi, è un concetto tipicamente occidentale: espansione sclerotica e disordinata o ritorno all’ordine?

La risposta non è a mio parere nessuna delle precedenti o meglio, ne è l’unione: espansione ordinata per ritornare all’ordine. L’esatto opposto di quello che sta succedendo oggi insomma, dove il tumore sclerotico e in incessante crescita che si espande senza senso nel nostro mondo esteriore, ma soprattutto interiore.

Il tema è stato affrontato genialmente da film come Akira, Dark, Brazil, Whoami, Her, Dark City, Matrix, e tanti altri. L’uomo si trova davanti ad un idolo da lui stesso fabbricato, che ad un tempo egli stesso si dimentica di aver fabbricato e dà quindi per scontato, come parte integrante della sua esistenza. Una massa superflua che si crede faccia parte di noi, un tumore vero e proprio.

Come dice giustamente Di Fazio in un articolo apparso nel 2021 su l’Espresso, l’uomo si trova davanti una forza bruta ma asettica, tirannica e prevedibile, da lui fabbricata e da lui fronteggiata con immensa fatica di corpo e mente.

Due sono i concetti che qui devono far rizzare le orecchie: memoria e irrequietudine. C’è una forza precisa, dentro di noi, che ostacola ad arte la memoria e che crea e amplifica l’irrequietezza. Questa è la forza che la Babilonia tecnologica che abbiamo creato dentro di noi, sta trasferendo all’idolo, l’algoritmo, che sta inondando le nostre vite con acque sempre più velenose, a flusso continuo.

Qualcosa dentro di noi gioca a farci dimenticare chi siamo, e quindi ci rende inquieti. Questo il “potere” che questo qualcosa, attraverso di noi, ha ceduto all’algoritmo.

Per parlare un po’ più chiaramente: la nostra isteria di massa, creazione continua ma disordinata, dal greco hysterion (utero), è stata data in custodia all’idolo creato con le nostre mani, l’algoritmo. L’ho ripetuto più volte lo so, non mi inoltro più avanti, non abbiamo comunque neanche sfiorato la superficie del problema…

Conclusioni

Qui lascio completamente la parola a Di Fazio, che centra perfettamente il punto. Il moderatore di contenuti è uno dei new jobs più logoranti. Pochi resistono più di qualche mese, prima di essere defenestrati per performance deludenti o andarsene con le proprie gambe per una sopravvenuta incapacità di osservare il male sotterraneo del mondo senza poter fare nulla oltre che occultarlo dalla superficie visibile dei social.

Gli strascichi sono pesanti. Il contraccolpo a lungo andare è micidiale, insopportabile. L’accumulo di visioni cruente traccia un solco profondo. Quale altra persona si sarà mai immersa così a fondo negli abissi della natura umana?

«L’esposizione a contenuti complessi e potenzialmente traumatici, oltre che al sovraccarico informativo, è certamente un aspetto rilevante della loro esperienza professionale quotidiana, ma non bisogna dimenticare anche l’alta ripetitività delle mansioni», spiega all’Espresso Massimiliano Barattucci, psicologo del lavoro e docente di psicologia delle organizzazioni.

L’alienazione, l’assuefazione emotiva al raccapriccio sono dietro l’angolo. «Può nascere un progressivo cinismo, una forma di abitudine che consente di mantenere il distacco dagli eventi scioccanti attinenti al loro lavoro […] possono esserci ripercussioni e disturbi come l’insonnia, gli incubi notturni, i pensieri o i ricordi intrusivi, le reazioni di ansia e diversi casi riconosciuti di disturbo post-traumatico da stress (PTSD.

Nella roccaforte Facebook di Phoenix, in Arizona, un giorno, ha raccontato un’ex moderatrice di contenuti al sito a stelle e strisce di informazione The Verge, l’attenzione di tutti è stata catturata da un uomo che minacciava di lanciarsi dal tetto di un edificio vicino. Alla fine hanno scoperto che era un loro collega: si era allontanato durante una delle due sole pause giornaliere concesse. Voleva mettersi così offline dall’orrore.

Fonte: Espresso

Veneto. Ex curatore di magazine e libri, approfondisce ora il mondo dell’editoria digitale e del web marketing. Ama la montagna e le lunghe camminate. Frase preferita: “chi no ga testa, ga gambe”.

Latest from Approfondimenti

TUTTI I TEMI DALLA A ALLA Z