top of page

กระแสต่อต้านหนัก Apple ยอมเลื่อนฟีเจอร์สแกนภาพโป๊ไปก่อน

  • Writer: ไชยรัตน์ ชื่นกมล
    ไชยรัตน์ ชื่นกมล
  • Sep 4, 2021
  • 1 min read

Updated: Sep 6, 2021


เมื่อเดือนที่ผ่านมา Apple เปิดตัวฟีเจอร์สแกนภาพภาพโป๊เด็กใน iCloud Photos (CSAM) โดยบริษัทอ้างว่าเพื่อปกป้องสิทธิ์และความเป็นส่วนตัวของเด็ก แต่หลังประกาศเปิดตัวฟีเจอร์นี้แล้ว Apple ก็โดนกระแสต่อต้านมาอย่างหนักจน Apple บอกว่าขอเลื่อนการใช้งานจริงออกไปก่อน


แถลงการณ์ของ Apple


“เมื่อเดือนที่แล้วเราประกาศเปิดตัวเครื่องมือ/ฟีเจอร์ที่จะช่วยป้องกันเด็ก ๆ จากผู้ไม่หวังดีที่ใช้ประโยชน์จากภาพโป๊เหล่านั้น แต่ผลตอบรับจากลูกค้า กลุ่มผู้สนับสนุน นักวิจัย และกลุ่มอื่น ๆ ทำให้เราได้ตัดสินใจที่จะเลื่อนการเปิดใช้งานฟีเจอร์นี้ไปก่อน และใช้เวลาเพิ่มเติมเพื่อรวบรวมข้อมูลและปรับปรุงเครื่องมือข้างต้นก่อนที่จะนำมาใช้งานจริง”


เดิมทีฟีเจอร์นี้ถูกตั้งไว้ให้มาพร้อมกับ iOS 15, iPadOS 15 และ macOS Monterey ในช่วงปลายปีนี้ แต่หลังจากมีประกาศเลื่อนเปิดตัวฟีเจอร์นี้ก็ยังไม่สามารถทราบได้ว่า Apple จะเริ่มใช้ฟีเจอร์นี้เมื่อไหร่



อ้างอิง 9to5Mac



ติดต่อ มี 5 สาขา งานด่วนรอรับได้เลยครับ


สาขา Terminal21 Asok ชั้น 2


สาขา Mega Bangna ชั้น 1 หน้าบิ๊กซี


สาขา Union Mall ชั้น B


สาขา เดอะมอลล์ บางกะปิ


สาขา ประเวศ สำนักงานใหญ่ ตรงข้ามเมกะ บางนา Map.



Line. @smileitservice



ขอบคุณครับ



 
 
 

Comments


  • Facebook Basic Square
  • Twitter Basic Square
  • Google+ Basic Square
Search By Tags
bottom of page