La Rivoluzione. Bimbi sicuri. Facebook cancella milioni di foto pornografiche grazie all’algoritmo intelligente

28 Ottobre 2018 - 12:20

La Rivoluzione. Bimbi sicuri. Facebook cancella milioni di foto pornografiche grazie all’algoritmo intelligente

La Rivoluzione. Facebook cancella milioni di foto pornografiche grazie all’algoritmo intelligente

Quasi nove milioni di immagini pedopornografiche tra i post di Facebook. In tre mesi un algoritmo messo a punto dal social di Mark Zuckerberg ha scovato 8,7 milioni di foto contenenti nudi di minori o comunque allusive allo sfruttamento di bambini. Facebook ha fatto ricorso alle nuove potenzialità dell’intelligenza artificiale per setacciare materiale con nudità infantili e contrastare le reti pericolose di pedofili che si nascondono tra i post della piattaforma.

In un trimestre

Ed è inquietante la quantità di immagini cancellate in appena un trimestre, da luglio a settembre. Il sistema d’intelligenza artificiale, creato dall’azienda americana, supera le potenzialità di un singolo essere umano o di un gruppo di lavoro, per i quali sarebbe impensabile esaminare ogni singola foto, tra i due miliardi di utenti.
Invece l’algoritmo di machine learning, impara a riconoscere i bambini ed eventuali nudità, le cui immagini vengono bloccate, e “segnalate ad organizzazioni e enti preposti, come il Centro nazionale americano per i bambini scomparsi o sfruttati, che a sua volta collabora con le forze dell’ordine” ha precisato in un post Antigone Davis, responsabile sicurezza di Facebook.

La novità

Parallelamente il sistema è in grado d’individuare anche persone adulte che stanno cercando di adescare minori, perché reiterano un certo tipo di comunicazione: la tecnologia intelligente, che sospetta un atteggiamento inappropriato nei confronti degli utenti minori, segnala l’account agli operatori di Facebook, che se confermano l’analisi preventinva, procedono con blocco e segnalazione alle autorità.
Fino ad oggi, nel 99% dei casi, l’accuratezza dell’algoritmo ha consentito d’individuare immagini sospette prima che avvenisse una segnalazione. (Leggo)