Fact checking
Chi sono quelli che ti levano i post da Facebook
di Giovanni Drogo
Pubblicato il 2015-02-17
Lavori disgustosi: i moderatori del social network blu. A controllare le segnalazioni che inviamo a Facebook non ci sono solo programmi sofisticati ma anche persone in carne ed ossa che devono controllare una per una quelle più gravi
L’Independent è stato il primo giornale a poter visitare il Facebook’s Community Operations team di Dublino. La sede di Facebook nella capitale irlandese è il più importante centro operativo del social network di Mark Zuckerberg al di fuori della California e il Facebook’s Community Operations team è il gruppo di lavoro che si occupa di vagliare le segnalazioni degli utenti.
UN MILIARDO DI UTENTI E MILIARDI DI SEGNALAZIONI
Come è immaginabile gestire un social network con oltre un miliardo di iscritti comporta diversi grattacapi. Uno dei problemi principali è far si che gli utenti di Facebook rispettino i famigerati Facebook’s Community standard ovvero le regole che stabiliscono cosa si può e cosa non si può postare su Facebook e quali comportamenti rientrano nelle linee guida (a volte molto vaghe) e quali invece rappresentano un rischio per la sicurezza degli utenti del popolare social network. I valorosi ingegneri di Facebook sono addestrati ad analizzare i contenuti che ricevono le segnalazioni e a capire se costituiscono un abuso e una violazione delle regole del social. Il centro operativo di Dublino è uno dei quattro creati da Facebook (gli altri sono in California, in Texas, Dublin e a Hyderabad in India) ed ha la responsabilità di monitorare l’attività degli utenti europei ma anche quelli africani, del Sud America e dei Paesi Arabi. Insomma, a quanto pare quando clicchiamo “segnala post” o “segnala questo contenuto” a Dublino c’è qualcuno che ad un certo punto ha l’incarico di controllare se la nostra segnalazione è corretta o meno.
Ovviamente però non tutte le segnalazioni hanno lo stesso grado di importanza quindi il team modula la sua risposta (e il suo eventuale intervento) in base alla gravità della situazione. Ad esempio una “minaccia di suicidio credibile” riceve una risposta più rapida (in teoria) di una segnalazione riguardante “questo contenuto non mi piace”. A quanto sembra quindi non ci sono robot o algoritmi ma persone reali (come ha spiegato la direttrice del centro californiano a Recode) il cui lavoro consiste nel leggere i report che inviamo a Facebook. L’idea alla base di questi team è quella di rendere Facebook un social dal volto umano, e la soluzione è stata quella di mettere dei veri esseri umani dall’altra parte dello schermo.
Naturalmente non tutte le segnalazioni vengono esaminate dai responsabili del Facebook’s Community Operations team, ed in effetti sarebbe ingenuo pensare che Facebook non faccia ricorso ad algoritmi di analisi in grado di automatizzare la risposta ad alcune segnalazioni, o anche solo per indirizzare i vari report ad uno specifico operatore. Ad esempio viene utilizzato il programma Microsoft Photo DNA, un programma creato per individuare e rimuovere le foto di abusi su minori e il materiale pedopornografico. Certo però a volte le cose non funzionano alla perfezione, almeno stando alle lamentele di Mario Adinolfi, bloccato perché qualcuno ha segnalato una sua foto che lo ritraeva nudo, al mare, all’età di due anni.
JE SUIS MARIO ADINOLFI
Non è la prima volta che il profilo facebook di Mario Adinolfi viene attaccato, oscurato, boicottato…
Adesso è successo ancora una volta.
E volete sapere perchè?
E’ lo stesso Mario Adinolfi che mi scrive:
“Non riesco più a postare sul mio profilo fb, mi hanno bloccato perché qualcuno ha segnalato una foto mia del 1973 quando avevo due anni ed ero nudo”.
E’ evidente il tentativo ennesimo di chiudere la bocca a MARIO ADINOLFI.
Noi non ci stiamo più: vi chiediamo, amici #selfisticrociati, amici di Notizie Pro Vita, Movimento per La Vita, Manif pour Tous e tutti quanti hanno a cuore la libertà di espressione di ribellarsi.
Pacificamente. JE SUIS MARIO ADINOLFI
È UN PO’ COME LAVORARE ALL’ONU
Fare l’analisi “a mano” delle segnalazioni non vuol dire passare ore a cliccare sui vari report. Il Team necessariamente deve avere al suo interno persone che non si limitano a conoscere la lingua nella quale è stata compilata la segnalazione ma anche la cultura specifica del paese di provenienza. Un contenuto ritenuto divertente in Francia potrebbe essere offensivo per gli utenti arabi o viceversa. Per poterlo capire è necessario un lavoro di analisi che rende la componente umana una parte essenziale del lavoro che si svolge al quartier generale di Dublino. E come spiega Julie de Bailliencourt, Safety policy manager per l’Europa, il Medio Oriente e l’Africa “a volte sembra di lavorare all’ONU”. Ed è così che Facebook vuole indicarci la strada per la risoluzione delle incomprensioni su base culturale.