文:Owen
以往學校網站上張貼學生相片,多數被視為展示校園生活、慶祝成就的正常做法;但在生成式 AI 普及之後,這些本來無害的影像,正開始變成可被濫用的素材。英國近日有兒童安全機構及執法部門警告,學校應重新審視網站與社交平台上的學生相片,尤其是清晰可見面孔的照片,因為犯罪分子已開始利用這些公開影像製作 AI 深偽不雅內容,再向學校勒索。

▲AI 生成圖像
從校園照片變勒索工具
據報,英國一間中學早前成為勒索目標。犯罪分子從學校網站或社交媒體帳戶擷取學生相片,再利用 AI 工具將影像篡改成兒童性虐待內容,然後將相關圖片傳送給學校,威脅若不付款便會公開發布。事件之所以令人不安,並不只是因為技術被濫用,而是素材來源竟然可能只是學校平日用作宣傳與紀錄的公開照片。
英國 Internet Watch Foundation(IWF)介入後,將相關影像轉化成數碼指紋(hash),再分享予主要科技平台,以阻止內容被上載及傳播。據稱,今次涉及約 150 張影像,在英國法律下可被歸類為兒童性虐待材料。這亦說明,即使原始照片本身完全正常,一旦經 AI 處理成違法內容,後果仍然非常嚴重。
「清晰正面照」變成風險
英國警方與兒童安全專家現時建議,學校應避免在網站或社交平台發布清晰可辨認學生面孔的照片。相關指引並非要求學校完全停止分享校園生活,而是提醒學校思考:是否真的需要使用可識別學生身份的影像?
建議做法包括使用遠距離拍攝、模糊處理、背影照,或選擇不露面但仍能展示活動氣氛的畫面。換句話說,校園影像的重點,可能需要由「拍到邊個」轉向「呈現發生了甚麼」。這種轉變對學校宣傳而言未必方便,但在 AI 深偽風險之下,確實變得愈來愈必要。
問題不算普遍,但已足夠敲響警鐘
負責網上危害預警的 Early Warning Working Group 指出,這類事件目前未算大規模爆發,但令人擔心的是,技術門檻正在迅速下降。以往要製作高質量偽造影像,需要一定技術與時間;現在只要有清晰照片,AI 工具便可在短時間內生成具傷害性的內容。這意味學校、家長甚至學生本人,都可能低估了公開照片的風險。
最棘手之處,在於學校影像通常具有高度可識別性:校服、校徽、活動場地、姓名標示,甚至得獎資訊,都可能協助犯罪分子鎖定個人身份。當影像與身份資料結合,勒索威脅便不再只是「假圖」問題,而是變成針對未成年人的實際傷害。
學校宣傳方式要重新設計
過去學校拍攝活動相片,往往重視清楚、自然、有人情味;但在今天,這套標準可能要被重新調整。對學校而言,最務實的做法不是恐慌式全面停用照片,而是建立更嚴謹的影像政策:哪些照片可以公開、哪些只能內部使用、是否需要家長明確同意、學生姓名與照片是否應分開處理,以及舊網站內容是否需要定期清理。
資料來源:PetaPixel




