以往學校網站上張貼學生相片,多數被視為展示校園生活的正常做法。但在生成式AI普及之後,這些本來無害的照片開始變成可被濫用的素材。英國近日有兒童安全機構及執法部門警告,學校應重新審視網站與社交平台上的學生照片,因為犯罪分子利用這些公開照片製作AI深偽不雅內容,再向學校勒索。
英國一間中學早前成為勒索目標。犯罪分子從學校網站或社交媒體帳戶擷取學生照片,再利用AI工具將其篡改成兒童性虐待內容,然後將相關圖片傳送給學校,威脅若不付款便會公開發布。事件之所以令人不安,並不只是因為技術被濫用,而是素材來源竟然可能只是學校平日用作宣傳與記錄的公開照片。
英國Internet Watch Foundation(IWF)介入後,將相關視頻轉化成數碼指紋,再分享予主要科技平台,以阻止內容被上載及傳播。據稱,今次涉及約150張照片,在英國法律下可被歸類為兒童性虐待材料。這亦說明,即使原始照片本身完全正常,一旦經AI處理成違法內容,後果仍然非常嚴重。
英國警方與兒童安全專家現時建議,學校應避免在網站或社交平台發布清晰可辨認學生面孔的照片。建議做法包括使用遠距離拍攝、模糊處理、背影照,或選擇不露面但仍能展示活動氣氛的畫面。這種轉變對學校宣傳而言未必方便,但在AI深偽風險之下,確實變得愈來愈必要。
負責網上危害預警的Early Warning Working Group指出,這類事件目前未算大規模爆發,但令人擔心的是,技術門檻正在迅速下降。以往要製作高質量偽造影像,需要一定技術與時間。現在只要有清晰照片,AI工具便可在短時間內生成具傷害性的內容。這意味著學校、家長甚至學生本人,都可能低估了公開照片的風險。