Loading...

Parte la “Corte suprema” di Facebook, che decide sui post rimossi che l’algoritmo non può valutare

I primi sei casi sono stati sottoposti alla sua attenzione

Oversight-board
Il lavoro dell’Oversight Board di Facebook che inizia oggi con i primi sei casi da sottoporre all’attenzione di una commissione di esperti (tra cui anche un premio Nobel per la pace) parte da un’ammissione molto importante: un algoritmo e una macchina non possono essere in grado di gestire, in virtù di complessi calcoli, i significati di alcune espressioni umane. Si tratta di una sorta di Corte Suprema (o Corte di Cassazione, se vogliamo paragonarlo al sistema giudiziario italiano) che deciderà se i post che sono stati rimossi dall’algoritmo per violazione delle policy del social network erano davvero da rimuovere o se, al contrario, presentavano delle sfumature non comprese dall’algoritmo che, di conseguenza, ne hanno causato la rimozione.

 

Cos’è l’Oversight Board di Facebook e come funziona
Una commissione composta da esseri umani, dunque, deciderà quello che l’algoritmo – probabilmente – ha sbagliato a fare. Un elemento che ci suggerisce come, in fondo, anche nel 2020 solo gli esseri umani possono valutare delle sfumature con cui altri esseri umani hanno colorato la propria comunicazione. Le richieste di questo tipo giunte all’Oversight Board di Facebook sono oltre 20mila, ma per capire l’essenza del problema, basta guardare i primi sei casi che la commissione andrà a esaminare.
Di questi, quattro riguardano presunte violazioni delle policy sui messaggi d’odio, una su una presunta violazione delle policy sulla nudità degli adulti, un’altra su una presunta fake news relativa al Covid-19. Il primo caso d’odio riguarda un post che ha pubblicato due screenshot dell’ex primo ministro malese Mahathir Mohamad che aveva affermato che i musulmani facevano bene a uccidere milioni di francesi per i massacri che questo popolo aveva commesso nel passato. L’utente, postando quegli screenshot, voleva soltanto dimostrare come le parole dell’ex primo ministro fossero inaccettabili. L’algoritmo, invece, aveva sovrapposto la posizione del politico a quella dell’utente che, invece, voleva condannare queste frasi.

Il secondo caso, pubblicando la foto di un bambino deceduto sulla spiaggia, voleva condannare i crimini commessi contro gli uiguri in Cina; il terzo, con l’intento di mostrare la distruzione di monumenti di carattere religioso, aveva affermato che, durante il conflitto armeno-azerbaigiano, c’era stato vandalismo da parte azera; il quarto mostrava una vecchia frase di Goebbels, con l’intento – però – di denunciare il clima politico d’odio che si era venuto a creare negli Stati Uniti.

Ancor più clamoroso il caso della nudità adulta contestato da Facebook: nel post si mostrava un seno per una campagna contro il tumore della mammella. Il contenuto era stato censurato dall’algoritmo per violazione degli standard della comunità. Casi in cui, insomma, non c’era alcun tipo di scandalo: l’Oversight Board cercherà di mettere una pezza a questo cortocircuito della piattaforma di .

Parte la “Corte suprema” di Facebook, che decide sui post rimossi che l’algoritmo non può valutareultima modifica: 2020-12-03T13:06:04+01:00da shopper2000
Reposta per primo quest’articolo
Loading...