Apple จับคนล่วงละเมิดทางเพศด้วยระบบ CSAM - Urban Creature

ทุกวันนี้ ปัญหาการล่วงละเมิดทางเพศเด็กเกิดขึ้นในหลายมุมโลก ไม่เว้นแม้แต่ประเทศไทย ที่เหยื่อความรุนแรงซึ่งพบมากที่สุด คือเด็กอายุ 11 – 15 ปี เพื่อเป็นหนึ่งกำลังที่ช่วยลดการล่วงละเมิดทางเพศในเด็ก Apple จึงประกาศระบบปฏิบัติการใหม่ที่ช่วยค้นหาภาพการล่วงละเมิดทางเพศเด็ก หรือ Child Sexual Abuse Material (CSAM) บน iPhone ของลูกค้าทุกคน

Apple กล่าวว่า iOS และ iPadOS เวอร์ชันใหม่ซึ่งจะเปิดตัวปลายปีนี้จะมีการเข้ารหัสใหม่เพื่อช่วยจำกัดการแพร่กระจายของภาพ หรือคลิปการล่วงละเมิดทางเพศเด็กบนโลกออนไลน์ โดยระบบจะเปรียบเทียบหลักฐานเหล่านั้นผ่านภาพการล่วงละเมิดทางเพศเด็กซึ่งรวบรวมโดยศูนย์เพื่อเด็กหายและถูกฉวยผลประโยชน์แห่งชาติ (National Center for Missing and Exploited Children) ซึ่งเมื่อระบบจับคู่ภาพเหล่านั้น และประเมินว่าเข้าข่ายการล่วงละเมิดทางเพศ ผู้ใช้รายนั้นจะถูกดำเนินคดีทางกฎหมายทันที

แต่ระบบนี้ยังเป็นที่ถกเถียงกันอยู่ เพราะประชาชนและผู้เชี่ยวชาญหลายคนกังวลเรื่องความเป็นส่วนตัวว่าเทคโนโลยีดังกล่าว อาจถูกใช้โดยรัฐบาลเผด็จการเพื่อสอดแนมความคิดเห็นทางการเมือง


Source : https://www.bbc.com/news/technology-58109748

Writer

SEND YOUR STORY

REQUEST INTERVIEW

ติดตามอ่าน “Urban Creature”
นิตยสารออนไลน์ที่จะทำให้คุณรักเมืองที่คุณอยู่ รักตัวเองมากขึ้นด้วยการเปิดมุมมองและนำเสนอแนวทางการใช้ชีวิตอย่างสร้างสรรค์ และสร้างแรงบันดาลใจใหม่ๆ ในการใช้ชีวิต
Better Life. Better Living.
Max. file size: 64 MB.