最近,“AI詐騙正在全國爆發(fā)”話題熱度居高不下。事情起因在于包頭警方近日發(fā)布一起利用AI實施詐騙的典型案例,受騙人10分鐘內(nèi)被騙430萬元。
AI詐騙之所以如此受社會關(guān)注、甚至引發(fā)恐慌,主要原因在于AI詐騙是模仿真人聲音和面部實施詐騙,這種針對個人信息定制的“專屬劇本”詐騙成功率非常高。上述案件中,騙子盜用受騙人好友微信賬號,通過AI換臉和擬聲技術(shù)佯裝好友,通過視頻聊天成功對受騙人實施詐騙。多地警方提醒,AI詐騙的成功率接近100%。親友間網(wǎng)絡(luò)上借錢更要防范此類詐騙,避免個人信息被別有用心者盜用。
面對此類詐騙案,網(wǎng)絡(luò)上甚至有網(wǎng)友自嘲,“還沒享受到AI的便利,就先遭到了AI的重錘”。眾所周知,利用新技術(shù)詐騙是電信詐騙的典型特點。從過往來看,無論是“盜版技術(shù)”BT種子下載還是“比特幣技術(shù)”區(qū)塊鏈,都曾是電信詐騙利用的工具。筆者在此呼吁,對于這種現(xiàn)象監(jiān)管部門需要高度重視,電信詐騙與新技術(shù)密切勾連,在實踐中容易造成上述污名化現(xiàn)象。其危害既影響科研人員積極性,又不利于營造友好的創(chuàng)新環(huán)境。
事實上,技術(shù)本身是中性的,“無罪的”,關(guān)鍵誰來運用。對于AI這樣的新一代信息技術(shù),我們不能因噎廢食。當前,ChatGPT引領(lǐng)AI變革,讓人們再次看到AI技術(shù)在解放生產(chǎn)力、提高生產(chǎn)效率上的巨大潛力。
同時,技術(shù)被濫用的風(fēng)險不容低估。筆者建議,在AI詐騙剛剛冒頭之際,監(jiān)管部門不僅要嚴打AI詐騙,還要利用大數(shù)據(jù)技術(shù)查清到底是哪些人在為AI詐騙提供技術(shù)?背后是否形成了灰色產(chǎn)業(yè)鏈?目的就是在AI技術(shù)發(fā)展中堅決規(guī)范并堵住危害社會的源頭。
追根溯源,AI詐騙的源頭在于個人信息泄露,在于數(shù)據(jù)的治理。個人信息不泄露,騙子也就無法拿到個人信息,無從得知人際關(guān)系,更沒法模仿面貌腔調(diào)。然而,在當前幾乎所有的App都想接入個人電話、照片、短信等權(quán)限的環(huán)境下,用戶“信息裸奔”現(xiàn)象時有發(fā)生。
因此,對于電信詐騙,見招拆招誠然重要,更重要的是防范。近年來,個人信息保護法、個人信息安全規(guī)范、數(shù)據(jù)安全法等法律法規(guī)陸續(xù)推出,加強了對公眾的生物特征等各類隱私數(shù)據(jù)保護力度。與此同時,生成式人工智能服務(wù)管理辦法出臺在即,重點強調(diào)了生成式人工智能產(chǎn)品訓(xùn)練數(shù)據(jù)及生成內(nèi)容的真實性。
筆者認為,監(jiān)管部門在貫徹落實好相關(guān)政策的同時,也要注重健全AI等新技術(shù)倫理規(guī)范,加強安全監(jiān)管舉措,引導(dǎo)和規(guī)范技術(shù)服務(wù)商行為。網(wǎng)絡(luò)社交等平臺企業(yè)要加強用戶賬號管理,防止被他人盜用、竊取。個人也要提高防范意識,避免過多暴露自身信息。
(責任編輯:臧夢雅)