← 返回專題列表
科技

私隱專員研立法禁AI深偽不雅影像 港大醜聞揭法律漏洞

個人資料私隱專員鍾麗玲今日(12日)透露,正研究修訂法例,禁止利用人工智能技術製作他人的深偽(deepfake)不雅影像。此舉源於去年香港大學一宗涉及AI生成色情圖像的醜聞,暴露了現行法律框架的重大漏洞——目前僅刑事化發布親密影像的行為,而製作過程本身卻未受規管。律政司轄下的跨部門工作小組正積極研究是否需要針對AI生成的不雅圖像進行專門立法。

港大AI色情圖像醜聞敲響警鐘

事件可追溯至2025年7月,一名港大法律系男學生被揭發利用AI技術,從社交媒體上擷取逾20名女同學及女教職員的照片,再生成超過700張色情圖像。事件震驚學界及社會,受害人身心受創嚴重。然而,由於現行法律並未明確將「製作」AI深偽不雅影像列為刑事罪行,執法機關在處理相關案件時面臨法律依據不足的困境。

鍾麗玲指出,該宗案件清楚顯示,隨著生成式AI技術日益普及且門檻大幅降低,任何人只需一部智能手機和免費應用程式,便可在數分鐘內生成以假亂真的深偽色情影像,對受害人造成不可逆轉的傷害。「技術發展的速度遠超立法步伐,這是全球監管機構共同面對的挑戰,」她表示,「但我們不能因此而不作為。」

跨部門工作小組研立法方向

據了解,律政司轄下已成立跨部門工作小組,專責研究是否需要就AI生成的不雅圖像進行專門立法。工作小組正參考英國、澳洲、韓國等地的相關法例,檢視將「製作」深偽不雅影像刑事化的可行性及法律框架設計。

署理創新科技及工業局局長張曼莉表示,律政司將於短期內公布相關立法研究的時間表,以回應社會的關注。她強調,政府在推動創科發展的同時,亦必須確保科技不被濫用於侵害他人權益,在促進創新與保障個人私隱之間取得適當平衡。

現行法律框架與個資條例保障

鍾麗玲解釋,儘管現行法律存在漏洞,《個人資料(私隱)條例》(PDPO)仍為受害人提供一定程度的保障。根據條例,未經當事人同意而製作或分享深偽影像,可能構成違反私隱法的行為。此外,條例第64條訂明的「起底」罪行,最高可處罰款100萬港元及監禁5年,為嚴重個案的執法行動提供法律基礎。

不過,她坦言上述條文並非專門針對AI深偽技術而設計,在實際應用中或存在詮釋空間及執行困難。因此,制定具針對性的專門法例將更有效地遏止相關行為,並向社會傳遞清晰訊息——利用AI技術製作他人不雅影像屬嚴重違法行為。

私隱署多管齊下應對AI濫用風險

在推動立法以外,私隱專員公署亦採取多項主動措施應對AI深偽技術的濫用風險。公署於2025年12月發布《濫用AI深偽技術:學校及家長工具包》,為教育界和家長提供實用指引,協助年輕人識別和防範深偽技術的潛在危害,內容涵蓋辨識深偽影像的技巧、遇到相關情況時的應對步驟以及舉報渠道等。

與此同時,隨著《保護關鍵基礎設施(電腦系統)條例》於2026年1月1日正式生效,香港的網絡安全法律框架進一步完善。該條例要求關鍵基礎設施營運者實施嚴格的網絡安全措施,並就安全事故進行通報,有助提升整體數碼環境的安全水平。

數據詐騙查詢激增 公眾意識待提高

私隱專員公署的最新數據亦揭示了另一個令人關注的趨勢。2024年,公署共接獲1,158宗涉及懷疑資料詐騙的查詢,按年大增46%,反映利用個人資料進行詐騙的活動日趨猖獗。鍾麗玲認為,查詢數字的攀升一方面反映詐騙手法隨科技進步而愈趨精密,另一方面亦顯示公眾對個人資料保護的意識正逐步提高。

她呼籲市民在網上分享個人照片時提高警覺,避免在公開社交媒體平台上載高清正面照片,以減低被不法之徒利用AI技術製作深偽影像的風險。她亦期望社會各界共同推動建立健康的數碼文化,從教育、技術和法律三個層面構建全方位的防護網,保障所有市民的私隱權利和人格尊嚴。