近日,包頭警方發(fā)布一起利用人工智能實(shí)施電信詐騙的典型案例,福州市某科技公司法人代表郭先生10分鐘內(nèi)被騙430萬元。復(fù)盤整個被騙過程細(xì)思恐極。據(jù)披露,騙子通過智能AI換臉和擬聲技術(shù),佯裝好友對他實(shí)施了詐騙。騙子并沒有使用仿真的好友微信添加郭先生,而是直接用好友微信發(fā)起視頻聊天求助。(5月23日《北京商報(bào)》)
AI詐騙,眼見未必為實(shí)。換聲、換臉、攔截微信號,電信詐騙所使用的多重技術(shù)正在讓騙局越來越難以識破。譬如,騙子會通過騷擾電話來提取受害人聲音,再用合成后的聲音實(shí)施詐騙。除了點(diǎn)對點(diǎn)獲取數(shù)據(jù),騙子也會用AI技術(shù)從網(wǎng)絡(luò)信息中篩選出受害人,并運(yùn)用人體圖像合成技術(shù)生成假臉,再對其施騙。另外,騙子還會在盜取微信號后,向其好友發(fā)送此前的聊天語音,借機(jī)取得信任并進(jìn)一步展開騙術(shù)。
由此可見,盡管各種騙局防不勝防,但只要切斷對AI詐騙的“數(shù)據(jù)喂養(yǎng)”,有效防范就不會是一句空話。與人類學(xué)習(xí)依靠大腦不同,人工智能的學(xué)習(xí)離不開大數(shù)據(jù)。通過統(tǒng)計(jì)分析瀏覽記錄、點(diǎn)擊頻次,系統(tǒng)便可把人的特征、行為、選擇信息化,為人的生活提供便利。然而,這也為隱私保護(hù)埋下了巨大的風(fēng)險,AI不免成為數(shù)據(jù)喂養(yǎng)的怪獸。
歸根結(jié)底,AI詐騙利用了隱私保護(hù)的漏洞。大數(shù)據(jù)時代,隨著隱私范圍的擴(kuò)大,隱私權(quán)利歸屬日益復(fù)雜,隱私保護(hù)難度也越來越高。這對隱私保護(hù)的關(guān)鍵技術(shù)、法律法規(guī)和公眾的權(quán)利意識都構(gòu)成了挑戰(zhàn)。為了應(yīng)對挑戰(zhàn),各方應(yīng)當(dāng)加強(qiáng)合作,織密個人隱私保護(hù)網(wǎng)。4月11日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》。其中明確提出,利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務(wù)的組織和個人,不僅要承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任,還要承擔(dān)個人信息處理者的法定責(zé)任,履行個人信息保護(hù)義務(wù)。相信通過強(qiáng)化新型監(jiān)管、協(xié)同治理,隱私保護(hù)將緊跟技術(shù)發(fā)展的腳步,讓技術(shù)更好造福生活。
此外,面對各種風(fēng)險,每個人都需要提升隱私保護(hù)意識。譬如,不輕易參與網(wǎng)上流行的“AI換臉”“AI換聲”活動,謹(jǐn)慎使用指紋支付、刷掌支付等新興支付方式,不隨意提供人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、視頻等信息。
(責(zé)任編輯:臧夢雅)