กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


ข่าว ผู้ใช้โวยกูเกิลใส่ SafetyCore ระบบตรวจจับภาพโป๊ในแอนดรอยด์อัตโนมัติ กูเกิลยืนยันปิดการทำงานได้

News 

Moderator
สมาชิกทีมงาน
Moderator
Collaborate
สัปดาห์ที่ผ่านมาผู้ใช้จำนวนหนึ่งพบว่าโทรศัพท์แอนดรอยด์ของตนนั้นมีแอปพลิเคชั่นที่ไม่มีหน้าจอโผล่ขึ้นมา คือ Android System SafetyCore โดยแอปนี้เป็นส่วนเสริมทำให้ Google Messages สามารถแจ้งเตือนผู้ใช้เมื่อได้รับหรือกำลังส่งต่อภาพโป๊ ส่งผลให้ผู้ใช้จำนวนหนึ่งแสดงความไม่พอใจว่ากูเกิลกำลังพยายามสอดส่องการใช้งาน

ตัว SafetyCore ไม่ได้ไปสแกนภาพด้วยตัวเอง แต่ตัวมันนั้นเป็น machine learning จัดหมวดหมู่ภาพที่ว่าภาพนั้นเป็นภาพโป๊หรือไม่ กูเกิลระบุว่าการจัดหมวดหมู่ภาพนี้ทำในโทรศัพท์โดยตรงไม่มีการส่งภาพกลับไปยังกูเกิลแต่อย่างใด

Google Messages เมื่อได้รับหรือส่งภาพ หากในเครื่องมี SafetyCore จะสามารถเบลอภาพพร้อมแจ้งเตือนผู้ใช้ว่าไม่ควรส่งต่อภาพโป๊ แต่ผู้ใช้สามารถปิดการทำงานของฟีเจอร์ sensitive content warnings นี้ด้วยตัวเองยกเว้นผู้ใช้เยาวชนที่ต้องให้ผู้ปกครองปิดการทำงานให้แทน

แนวทางของกูเกิลต่างจากของแอปเปิลที่พยายามสแกนภาพโป๊เด็กในเครื่องของผู้ใช้เมื่อปี 2021 โดยกูเกิลไม่ได้ระบุถึงการแจ้งหน่วยงานภายนอกแต่อย่างใด และโดยทั่วไปก็ยังปิดการใช้งานฟีเจอร์นี้ได้ รวมถึงอาจจะใช้งานเช่นบล็อคภาพโป๊ที่เพื่อนส่งมาแกล้งเวลางานได้ แต่หลังจากกูเกิลติดตั้งแอปนี้ในเครื่องของผู้ใช้โดยอัตโนมัติก็ถูกถล่มรีวิว 1 ดาวจำนวนมาก

Android System SafetyCore รองรับ Android 9.0 ขึ้นไป วันแรกที่ปล่อยแอปนี้ออกมาคือ 22 มกราคมที่ผ่านมา ตอนนี้มียอดดาวน์โหลดแล้วเกินพันล้านครั้ง

ที่มา - Forbes

ผู้ใช้โวยกูเกิลใส่ SafetyCore ระบบตรวจจับภาพโป๊ในแอนดรอยด์อัตโนมัติ กูเกิลยืนยันปิดการทำงานได้-1.png


Topics:
Android
Privacy

Continue reading...
 

กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
กลับ
ยอดนิยม