(資料圖片僅供參考)
近期,多家媒體注意到,“AI換臉”新型詐騙頻發(fā),利用人工智能實(shí)施電信詐騙的典型案例沖上熱搜,引發(fā)全網(wǎng)關(guān)注。據(jù)“平安包頭”微信公眾號消息,近日,包頭市公安局電信網(wǎng)絡(luò)犯罪偵查局發(fā)布一起使用智能AI技術(shù)進(jìn)行電信詐騙的案件,福州市某科技公司法人代表郭先生10分鐘內(nèi)被騙430萬元。
正常情況下,人們都信奉“眼見為實(shí)”,尤其是隨著視頻通訊的普及,對于通過網(wǎng)絡(luò)視頻“面對面”的交流,大家總是很容易信任的。但上述詐騙案件告訴我們,這一點(diǎn)也正在被一些騙子“鉆空子”。更重要的是,當(dāng)前多數(shù)人對此都缺乏足夠的警惕意識。
當(dāng)務(wù)之急,還是要加強(qiáng)有針對性的防騙教育和提醒。類似的“AI換臉”詐騙案例,應(yīng)該盡快通過多種渠道告知民眾,尤其要提醒一些老年人。與此同時,防騙治理工作也要盡快跟上,目前對“AI換臉”詐騙的防范措施還比較少。針對這類詐騙的新手段和新路徑,是否在技術(shù)層面能夠有相應(yīng)的防范措施,需要相關(guān)部門及企業(yè)加緊探索,織密防騙網(wǎng)絡(luò)。比如,網(wǎng)絡(luò)社交通信工具能否增加準(zhǔn)確識別“AI換臉”操作的功能,以此對當(dāng)事人作出提醒?
還要注意一點(diǎn),“AI換臉”畢竟是建立在對人臉信息的加工和利用之上,這也應(yīng)該讓社會對如今人臉識別的濫用風(fēng)險有更多的科學(xué)評估。因?yàn)樵谀壳暗默F(xiàn)實(shí)條件下,人臉識別的應(yīng)用范圍越廣,也就意味著人臉信息的泄露可能越嚴(yán)重。如此自然也就很容易降低“AI換臉”詐騙的門檻。對此,相關(guān)監(jiān)管和立法應(yīng)該要有所跟進(jìn),進(jìn)一步明確人臉識別技術(shù)應(yīng)用的邊界,提高對人臉信息的保護(hù)力度。同時,語音、視頻等合成技術(shù)的研發(fā)和使用 ,也應(yīng)該進(jìn)守住技術(shù)倫理底線,以從源頭上減少其“干壞事”的可能性。
當(dāng)然,對于“AI換臉”詐騙也沒必要人人自危。說到底,過去一些最基本的防詐原則依然管用。比如,涉及錢款交易,一定要慎之又慎,進(jìn)行多方驗(yàn)證。中國互聯(lián)網(wǎng)協(xié)會就發(fā)出提醒:“在AI時代,文字、聲音、圖像和視頻都有可能是深度合成的,在轉(zhuǎn)賬匯款、資金往來這樣的典型場景,要通過回?fù)軐Ψ绞謾C(jī)號等額外通信方式核實(shí)確認(rèn),不要僅憑單一溝通渠道未經(jīng)核實(shí)就直接轉(zhuǎn)賬匯款,無論對方是誰!”這點(diǎn)其實(shí)相當(dāng)重要,只要涉及轉(zhuǎn)賬操作和資金往來,一定要多留個心眼。這應(yīng)當(dāng)是每個人都需要擁有的防騙素養(yǎng)。
朱昌俊
責(zé)任編輯:Rex_26