Facebook e Instagram accusati di ignorare segnalazioni su contenuti pericolosi

Facebook e Instagram accusati di ignorare segnalazioni su contenuti pericolosi

Secondo Meta, il suo programma Trusted Partner “è una parte fondamentale dei nostri sforzi per migliorare le nostre politiche, i processi di applicazione e i prodotti, per aiutare a mantenere gli utenti al sicuro sulle nostre piattaforme”. Secondo alcuni partner di fiducia, tuttavia, Meta trascura la sua iniziativa di punta, lasciandola significativamente a corto di risorse, a corto di personale e presumibilmente soggetta a “fallimenti operativi” di conseguenza.

Questa è una delle principali accuse di un rapporto pubblicato mercoledì dal media senza scopo di lucro Internews. Il programma Trusted Partner è composto da 465 gruppi globali della società civile e dei diritti umani. Mira a fornire loro un canale designato per avvisare Facebook e Instagram di contenuti pericolosi e dannosi come minacce di morte, account compromessi e incitamento alla violenza. Meta promette di dare la priorità a quei rapporti e di intensificarli rapidamente.

Ma Internews afferma che alcune organizzazioni partecipanti subiscono lo stesso trattamento degli utenti regolari: aspettano mesi per le risposte a un rapporto, vengono ignorate e sono alienate da una comunicazione scarsa e impersonale. Secondo il rapporto, i tempi di risposta sono irregolari e, in alcuni casi, Meta non reagisce affatto o offre alcuna spiegazione. Ciò si applica presumibilmente anche a contenuti altamente sensibili al tempo, come gravi minacce e inviti alla violenza.

«Due mesi in più. E nelle nostre e-mail diciamo loro che la situazione è urgente, le persone stanno morendo”, ha detto un partner di fiducia anonimo. “La situazione politica è molto delicata e deve essere affrontata con urgenza. E poi sono mesi senza una risposta”.

«Due mesi in più. E nelle nostre e-mail diciamo loro che la situazione è urgente, le persone stanno morendo”.

Per il rapporto, Internews ha raccolto le valutazioni di 23 partner di fiducia provenienti da tutte le principali regioni del mondo e ha aggiunto le proprie osservazioni come partner del programma. La maggior parte delle organizzazioni ha riportato esperienze simili, ma c’è stata un’eccezione: l’Ucraina, dove la reattività è stata di gran lunga superiore alla media. I partner ucraini possono aspettarsi una risposta entro 72 ore, mentre in Etiopia i rapporti relativi alla guerra del Tigray possono rimanere senza risposta per diversi mesi.

Le conclusioni del rapporto si adattano a precedenti fughe di notizie e rapporti sulle priorità globali di Meta. I partner fidati sono particolarmente importanti al di fuori del Nord America e dell’Europa, dove gli utenti non possono fare affidamento sul fatto che i contenuti vengano costantemente controllati dall’intelligenza artificiale e da migliaia di moderatori Meta umani. Eppure, due anni fa, l’ex dipendente di Facebook Frances Haugen ha pubblicato documenti interni che hanno rivelato quanto poco a Meta importi del sud del mondo. In paesi come Etiopia, Siria, Sri Lanka, Marocco e Myanmar, Facebook e Instagram non riescono a impedire agli estremisti di incitare alla violenza. Il presunto fallimento di partner fidati potrebbe essere parte del motivo.

Nel maggio 2023, quasi 50 gruppi per i diritti umani e la responsabilità tecnologica hanno firmato una lettera aperta a Mark Zuckerberg e Nick Clegg dopo che Meareg Amare, un professore tigrino, è stato vittima di doxx in un attacco razzista su Facebook e ucciso poco dopo in Etiopia. Suo figlio, Abrham, ha cercato invano di convincere Facebook a rimuovere i post. “Non riuscendo a investire e distribuire adeguati miglioramenti della sicurezza al tuo software o impiegando sufficienti moderatori di contenuti, Meta sta alimentando le fiamme dell’odio e contribuendo a migliaia di morti in Etiopia”, si legge nella lettera.

“I programmi di segnalazione affidabili sono vitali per la sicurezza degli utenti, ma i partner di Meta sono profondamente frustrati dal modo in cui il programma è stato eseguito”, ha affermato Rafiq Copeland, consulente per la responsabilità della piattaforma presso Internews e autore del rapporto. Copeland ritiene che siano necessari maggiori investimenti per garantire che le piattaforme di Meta siano sicure per gli utenti. “La vita delle persone dipende da questo.”

La recensione è stata originariamente istituita come una collaborazione con Meta. Nel 2022 la società ha ritirato la sua partecipazione. Meta afferma che “i problemi di segnalazione del piccolo campione di partner fidati che hanno contribuito alla segnalazione non rappresentano, a nostro avviso, un quadro completo o accurato del programma”. Internews afferma di aver richiesto l’assistenza di Meta per notificare ai suoi partner la revisione, ma Meta ha rifiutato.

Meta non rivela i suoi tempi di risposta medi e target o il numero di dipendenti che lavorano a tempo pieno sul programma. Un portavoce ha rifiutato di commentare il rapporto.