Un colosso fondato nel 2004 da Mark Zuckerberg, Eduardo Saverin, Andrew McCollum, Dustin Moskovitz e Chris Hughes prende una svolta inaspettata
Per qualcuno sarà stata gradita. Per altri, invece, qualcosa di molto fastidioso. Una caduta di stile memorabile. Una epic fail che ha colpito uno dei colosso mondiali. Fatto sta che, sia che ci si trovi in una schiera, che nell’altra, ciò che è accaduto ha dell’incredibile.
Palcoscenico di questa vicenda assurda è Facebook. Anzi, come si fa chiamare da qualche tempo, Meta. La società ha assunto il nome attuale a partire dal 28 ottobre 2021. Controlla i servizi di rete sociale Facebook e Instagram, i servizi di messaggistica istantanea WhatsApp e Messenger e sviluppa i visori di realtà virtuale Oculus Rift.
Un colosso fondato nel 2004 da Mark Zuckerberg, Eduardo Saverin, Andrew McCollum, Dustin Moskovitz e Chris Hughes con il nome di Facebook, Inc. Una idea incredibile, nata in un modo altrettanto incredibile, come abbiamo avuto modo di scoprire anche dal bel film di David Fincher, “The social network”.
Ebbene, l’azienda (e quindi Facebook) sono stati protagonisti di un caso che ha fatto strabuzzare gli occhi ai milioni e milioni di utenti sparsi in giro per il mondo.
Facebook porno?
Un bug interno al sistema, infatti, è il responsabile di contenuti identificati come fuorvianti o problematici di recente assegnato per errore ai feed degli utenti di Facebook. Secondo Joe Osborne, portavoce di Meta, società madre di Facebook, qualcuno ha ampiamente sopravvalutato questo bug, perché alla fine non ha avuto un impatto significativo a lungo sui contenuti problematici.
Secondo quanto emerge, il bug avrebbe permesso al social network di pubblicizzare post contenenti nudità, violenza e disinformazione. Contenuti quindi sgradevoli per la morale pubblica. Ma anche pericolosi, perché in tempo di guerra, purtroppo, il conflitto si gioca anche con la propaganda e con le fake news.
E in tanti l’hanno notato. Eccome! Lo scorso ottobre, infatti, alcuni dipendenti di Facebook avevano notato che alcuni contenuti, contrassegnati come discutibili da media esterni – membri del programma di fact-checking della piattaforma affidato a terze parti – erano comunque preferiti dall’algoritmo per essere distribuiti nei feed di notizie degli utenti.
Il problema di classificazione sarebbe stato risolto solo poche settimane fa, l’11 marzo. Secondo Osborne, il bug ha interessato “solo un numero molto ridotto di recensioni” di contenuti, visto che sono rimasti attivi altri meccanismi progettati per limitare le recensioni di contenuti ‘dannosi’.
Fatto sta che il problema ha richiesto sei mesi per essere totalmente rimosso.