Apple ประกาศชะลอระบบสแกนภาพโป๊เด็กบน iPhone และ iCloud ออกไปก่อน เพื่อพัฒนาให้ระบบดียิ่งขึ้น

เป็นข่าวฮือฮาไปทั่วโลกเมื่อแอปเปิลได้มีการประกาศใช้ระบบตรวจสอบถาพโป๊เปลือยเด็ก (Child Safety Features) ซึ่งเป็นส่วนหนึ่งของ iOS 15 และ iCloud ซึ่งก่อให้เกิดเสียงวิจารณ์ไปทั่ว ถึงการละเมิดสิทธิผู้ใช้หรือเปล่า

ล่าสุดแอปเปิลได้มีการประกาศถึงการเลื่อนการใช้ฟีเจอร์ดังกล่าวออกไปก่อน ดังนี้

ในช่วงเดือนที่ผ่านมา เราได้มีการประกาศฟีเจอร์ที่ต้องการที่จะปกป้องเด็กๆ จากผู้ไม่หวังดี ที่ใช้เครื่องมือสื่อสารต่างๆ เพื่อส่งต่อหรือกระจายข้อมูลที่ละเมิดต่อเด็กๆ และเยาวชน ทั้งนี้จาก Feedback ต่างๆ ที่เราได้รับจากลูกค้า กลุ่มผู้เกี่ยวข้อง นักวิจัย และผู้ที่เกี่ยวข้อง เราได้ตัดสินใจที่จะใช้เวลาในช่วงหลังจากนี้ เพื่อเก็บข้อมูลและพัฒนาให้พร้อม ก่อนที่จะเปิดใช้ฟีเจอร์ที่สำคัญยิ่งตัวนี้

ทั้งนี้ Child Safety Features เป็นความพยายามของแอปเปิลที่จะปกป้องเด็กๆ เยาวชน โดยระบบจะทำการเปรียบเทียบข้อมูลบางส่วนของภาพบนอุปกรณ์และบน iCloud กับข้อมูลจากหน่วยงานด้านปกป้องสิทธิเด็กและเยาวชน (CASM – Child Sexual Abuse Material)

ซึ่งหลายฝ่ายได้ออกมาวิจารณ์แอปเปิลอย่างหนัก ถึงการละเมิดสิทธิของผู้ใช้เกินขอบเขตหรือเปล่า ซึ่งล่าสุดแอปเปิลก็ได้เลื่อนการใช้ออกไปก่อนแล้ว

ที่มา – Apple