隨著AI技術的發展,變臉、擬聲的深度偽造現象也隨處可見。一些人利用這樣的先進技術,實施針對老年人的詐騙。有哪些AI新型詐騙方式?如何防范?一起了解。
AI變臉擬聲 新型技術針對老年人實施詐騙
9月1日,北京大學國家發展研究院教授李玲發布了一份公開聲明,稱“近期網上出現了大量假冒本人推銷醫藥書籍和治療手段的虛假視頻,大多是人工智能AI合成。本人從未在任何平臺推銷過醫藥書籍和醫療產品,請各位不要上當受騙”。
隨后,李玲教授向警方報警。
北京大學國家發展研究院教授 李玲:我覺得這個,不僅損害我的利益,許多的其實是損害了公眾的利益。因為老年人更關注健康,會實施一些養生的方法、治療的方式。所以特別希望我們老年朋友們一定要識別,要看清楚,你買他的東西,他是不是這一行的專家?像我是搞政策的,這個治療,我不是行家,不會推薦的。
除了賣東西給老年人,更可怕的,還有利用這種深度偽造的技術,實施針對老年人的詐騙。
武漢市公安局漢陽分局琴斷口派出所民警接到轄區銀行報警,稱先后有兩位老人,要求提前支取定期存款,疑似遭到了詐騙。而兩位老人并不認識,只是碰巧在同一個銀行取錢。
武漢市公安局漢陽區分局琴斷口派出所民警 胡楚文:肖婆婆接到電話,說她上大學的孫子跟別人起了沖突,把對方打傷了,現在正在派出所調解。楊爹爹接到電話,說他的孫子,在路上出了交通事故,需要跟對方私了,因為擔心影響后面的工作。
民警向老人解釋了AI詐騙的套路,老人都聲稱,電話里的聲音和自己的孫子一模一樣。經民警聯系家屬確認,兩位老人的孫子,并沒有電話里的情況發生。
武漢市公安局漢陽區分局琴斷口派出所民警 胡楚文:目前這兩個案例,已經非常充分說明,現在的AI技術已經可以模擬聲紋、人的面容,所以你所看到的、聽到的,都不一定是真的。
還有更極端的事情。一位母親正和女兒視頻聊天,女兒在視頻里抱怨“生活費不夠用了”,就在這時,家門打開了,她的“真女兒”走了進來。而另一頭,視頻里的“假女兒”還在央求母親“給生活費”。
加強治理 幫助老年人防范新型詐騙
在利用新技術進行的新型詐騙中,老年人是弱勢群體。他們分辨力低,但平時也離不開手機的使用。如何幫助老年人防范這樣的陷阱,也成為各位關心的問題。
在上海和平公園,虹口公安分局民警為現場老年人講解了目前常見的投資理財詐騙、網絡貸款詐騙等電信網絡詐騙手段。
在遼寧大連,一場包含AI互動、反詐宣傳、知識科普等主題的反詐宣傳活動也吸引了不少老年人前來,沉浸式學習預防電信網絡詐騙犯罪的相關知識,提升防騙能力。
9月8日開幕的2024年國家網絡安全宣傳周上,就專門設置了關于AI換臉、換聲等對個人隱私侵害的反詐宣傳展位。
中國網絡空間安全協會人工智能安全治理專業委員會委員 張博:除了換臉之外,如果再結合換背景環境、換聲音等等,那樣逼真度就會更高,更加難以分辨。
近幾年,我國對于規范人工智能生成、合成、使用上一直在采取積極措施。
2022年12月,國家網信辦等三部門發布《互聯網信息服務深度合成管理規定》,旨在加強互聯網信息服務深度合成管理。
2023年7月,國家網信辦等七部門聯合公布《生成式人工智能服務管理暫行辦法》,在鼓勵創新與發展的同時,進一步完善人工智能管理體系。
2024年7月,國家金融監督管理總局金融消費者權益保護局發布風險提示,提醒公眾防范“共享屏幕”“AI換臉擬聲”等新型電信網絡詐騙。
2024年9月14日,國家網信辦發布《人工智能生成合成內容標識辦法(征求意見稿)》。
《人工智能生成合成內容標識辦法(征求意見稿)》中提出:
人工智能生成合成內容標識包括顯式標識和隱式標識。
網絡信息服務提供者在提供生成合成內容下載、復制、導出等方式時,應當確保文件中含有滿足要求的顯式標識。