文:Tony
Apple 宣佈在 iOS 15 及 iPad 15 系統推出時,會掃瞄大家 iCloud 內的照片,雖然對個人私隱有所影響,但原來目的是為了禁止兒童性虐待材料 (CSAM) 上載到 iCloud。
用戶使用 iCloud 時,將會自動下載一個 CSAM 圖像數據庫,並在設備上與用戶自己的照片進行比較,判斷照片是否 屬於 CSAM 類別,希望值此保護兒童。但用戶如關閉了 iCloud ,系統將無法識別圖片是否屬於 CSAM 類別。
雖然兒童就像幼苗要好好保護,但有資訊安全人員就擔心,Apple 未來或會掃瞄或阻止用戶上載有關政治或其他敏感內容。
資料來源:macrumors