“Apple uses image matching technology to help find and report child exploitation. Much like spam filters in email, our systems use electronic signatures to find suspected child exploitation. Accounts with child exploitation content violate our terms and conditions of service, and any accounts we find with this material will be disabled.Pertanyaan selanjutnya yang muncul adalah apakah perubatan Apple tersebut disetujui oleh pengguna?
Sebab, Apple akan memindai ribuan bahkan jutaan foto setiap harinya.
Baca Juga: Apple Menunda Fitur Sharing Folder iCloud Drive Hingga Tahun Depan
Ini bukan pertama kalinya Apple memiliki fokus pada masalah kekerasan pada anak.
Apple telah memiliki teknologi Machine Learning (ML) yang mampu membantu Apple mendeteksi ada tidaknya foto dengan muatan kekerasan pada anak.
Pada 2018 silam, Apple bahkan mencabut Tumblr dari App Store karena dilaporkan memuat gambar pornografi anak.