Temuan ini merupakan hasil dari meningkatnya kemampuan machine learning yang memudahkan Facebook untuk menemukan konten-konten berbau terorisme di jejaring sosialnya.
Facebook bahkan mampu menemukan 99,5% konten yang terkait dengan terorisme sebelum konten tersebut dilaporkan oleh pengguna, seperti dikutip detikINET dari The Verge, Kamis (17/5/2018).
Selain konten yang terkait terorisme, Facebook juga melaporkan temuan konten bermasalah lainnya, seperti konten kekerasan grafis, dimana Facebook menindak 3,4 juta konten yang banyak muncul bersamaan dengan semakin buruknya situasi di Suriah.
Laporan Facebook ini merupakan bagian dari Community Standards Enforcement Report yang mencatat upaya Faceboook untuk memoderasi konten antara Oktober 2017 hingga Maret 2018.
Facebook juga berencana untuk merilis laporan ini dua kali dalam setahun. Tujuan dari dirilisnya laporan ini sendiri agar pengguna bisa mengerti bagaimana upaya dan tantangan yang dihadapi Facebook dalam menangani konten-konten yang bermasalah. (rou/rou)
Sumber: Detiknews