Hi,歡迎來(lái)到黃頁(yè)88網(wǎng)!
當(dāng)前位置:首頁(yè) > 人工智能 > AI換臉10分鐘內(nèi)被騙走430萬(wàn)元 警惕人工智能技術(shù)濫用

AI換臉10分鐘內(nèi)被騙走430萬(wàn)元 警惕人工智能技術(shù)濫用

互聯(lián)網(wǎng)時(shí)間: 2023-06-07 11:01:43

對(duì)于濫用生成式人工智能技術(shù)的擔(dān)憂在世界范圍內(nèi)都存在。不僅因?yàn)槠涑揭话慵夹g(shù)的“創(chuàng)造能力”和“破壞性”,更因?yàn)槿藗儼l(fā)現(xiàn),生成式人工智能技術(shù)發(fā)展的速度極快。目前,世界各國(guó)對(duì)其風(fēng)險(xiǎn)的預(yù)判與防范均處于探索階段,有賴于法律體系的進(jìn)一步完善。

10分鐘內(nèi)被騙走430萬(wàn)元,近期,用AI技術(shù)興風(fēng)作浪的詐騙案件,引起了社會(huì)關(guān)注。

5月22日,包頭警方發(fā)布的一起利用AI實(shí)施電信詐騙的案例沖上熱搜。福州市某科技公司法人代表郭先生在接到“好友”微信視頻電話后,考慮到關(guān)系好又是真人視頻通話,在10分鐘內(nèi)直接向?qū)Ψ劫~戶匯款430萬(wàn)元。隨后才意識(shí)到自己遭遇了“高端”騙局,“好友”是騙子通過(guò)AI換臉技術(shù)佯裝而成的。

關(guān)于AI技術(shù)的爭(zhēng)論不曾停止過(guò)。此前,ChatGPT就曾因編寫假新聞而飽受詬病,而近期大量出現(xiàn)的AI詐騙更是令人不得不開(kāi)始反思,AI生成的虛假信息或許潛藏著巨大的社會(huì)風(fēng)險(xiǎn)。

需警惕生成式人工智能技術(shù)的濫用

英國(guó)媒體《每日郵報(bào)》曾報(bào)道,2019年3月,英國(guó)警方逮捕了一名使用AI語(yǔ)音模仿軟件的詐騙者。他將自己的聲音改變成當(dāng)?shù)匾患夷茉垂纠习宓穆曇簦浴皫椭颈苊馔锨妨P款”為由要求一位高管向其匯款,通過(guò)電話騙取了22萬(wàn)歐元(約合人民幣170萬(wàn)元)。據(jù)這名高管回憶,當(dāng)時(shí)他也產(chǎn)生了疑心,但他的確聽(tīng)到了老板的德國(guó)口音。此案被認(rèn)為是全球首例人工智能詐騙案。

其實(shí),模仿一個(gè)人的聲音乃至外貌,對(duì)AI來(lái)說(shuō)并不是新鮮事。此前,“AI孫燕姿”就曾在B站等網(wǎng)絡(luò)平臺(tái)走紅,視頻上傳者通過(guò)使用AI音色替換技術(shù)(Sovits4.0),生成了高度還原孫燕姿音色的翻唱歌曲,其中原唱為周杰倫的歌曲《發(fā)如雪》播放量已超過(guò)200萬(wàn)次。近期也有媒體報(bào)道了一款網(wǎng)絡(luò)上的付費(fèi)AI換臉軟件,其套餐價(jià)格從499元到2888元不等,肉眼來(lái)看,換臉之后的“數(shù)字人”口型、表情、微小的動(dòng)作幾乎毫無(wú)破綻。

諸如此類生成式人工智能(Generative Artificial Intelligence,簡(jiǎn)稱GAI)的大量出現(xiàn)很大程度上得益于深度合成和機(jī)器學(xué)習(xí)的快速發(fā)展。而AI詐騙者正是通過(guò)這些先進(jìn)的技術(shù),訓(xùn)練出能夠模擬人類語(yǔ)言和神態(tài)的AI。

蘇州大學(xué)競(jìng)爭(zhēng)政策與反壟斷研究中心研究員方翔指出,近期的AI詐騙案件主要是人工智能技術(shù)在圖像領(lǐng)域的應(yīng)用,其可以將不同人臉圖像中的面部特征相互替換?!皵M聲”則是借助深度學(xué)習(xí)模型,根據(jù)已有的語(yǔ)音樣本(如通話錄音、網(wǎng)絡(luò)視頻等)生成與其近似的聲音,進(jìn)而做到與人交談。

5月24日,中國(guó)互聯(lián)網(wǎng)協(xié)會(huì)發(fā)文提醒,伴隨著深度合成技術(shù)的開(kāi)放開(kāi)源,深度合成產(chǎn)品和服務(wù)逐漸增多,利用“AI換臉”“AI換聲”等虛假音視頻,進(jìn)行詐騙、誹謗的違法行為屢見(jiàn)不鮮。面對(duì)利用AI技術(shù)的新型騙局,廣大公眾需提高警惕,加強(qiáng)防范。業(yè)內(nèi)人士普遍認(rèn)為,“AI換臉”技術(shù)的濫用給人們敲響了警鐘,其復(fù)雜性、隱蔽性也給科技識(shí)別及運(yùn)用提出了更高的要求。

“對(duì)于生成式人工智能,正當(dāng)適度使用,可以倍增工作效率,有力推動(dòng)創(chuàng)意產(chǎn)業(yè)發(fā)展,促進(jìn)消費(fèi)者福祉增長(zhǎng)。但同時(shí),虛假使用可引發(fā)謠言泛濫、侵害權(quán)利、壓榨利益,而過(guò)度使用可引發(fā)踐踏人性、減少就業(yè)、貧富懸殊,而惡意濫用甚至成為歪曲真相、撕裂社會(huì)、政策干擾、禍亂宇內(nèi)的罪惡之源?!敝袊?guó)互聯(lián)網(wǎng)協(xié)會(huì)法工委副秘書長(zhǎng)胡鋼認(rèn)為,要堅(jiān)持依法崇德治理,使全社會(huì)形成法網(wǎng)大于互聯(lián)網(wǎng)、國(guó)法高于算法、人工智能不能成為“人工制人”的共識(shí)。

探索構(gòu)建完善的人工智能法律體系

“我國(guó)針對(duì)人工智能及數(shù)據(jù)安全、個(gè)人信息保護(hù)的立法雖然起步較晚,但日臻成熟?!狈较柚赋?,早在2017年7月,國(guó)務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,其作為我國(guó)AI發(fā)展的綱領(lǐng)性文件,提出了面向2030年我國(guó)新一代人工智能發(fā)展的指導(dǎo)思想、戰(zhàn)略目標(biāo)、重點(diǎn)任務(wù)和保障措施,其中特別提到“到2025年初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評(píng)估和管控能力”。

2022年12月,國(guó)家網(wǎng)信辦、工信部、公安部聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,強(qiáng)調(diào)不得利用深度合成服務(wù)從事法律、行政法規(guī)禁止的活動(dòng),要求深度合成服務(wù)提供者對(duì)使用其服務(wù)生成或編輯的信息內(nèi)容,應(yīng)當(dāng)添加不影響使用的標(biāo)識(shí)。提供智能對(duì)話、合成人聲、人臉生成、沉浸式擬真場(chǎng)景等生成或者顯著改變信息內(nèi)容功能服務(wù)的,可能導(dǎo)致公眾混淆或者誤認(rèn)的,應(yīng)當(dāng)進(jìn)行顯著標(biāo)識(shí)。

2023年4月,國(guó)家網(wǎng)信辦起草《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》并向社會(huì)公開(kāi)征求意見(jiàn),提出AI內(nèi)容必須真實(shí)準(zhǔn)確,禁止非法獲取、披露、利用個(gè)人信息和隱私、商業(yè)秘密。

“總的來(lái)看,構(gòu)建完善的人工智能法律體系,我國(guó)目前仍在探索階段?!狈较枵f(shuō)。中國(guó)信息通信研究院云計(jì)算與大數(shù)據(jù)研究所所長(zhǎng)何寶宏則指出,2022年12月發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》明確針對(duì)在中國(guó)境內(nèi)應(yīng)用深度合成技術(shù)提供的互聯(lián)網(wǎng)信息服務(wù)進(jìn)行規(guī)制,其中,深度合成技術(shù)是指利用深度學(xué)習(xí)、虛擬現(xiàn)實(shí)等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場(chǎng)景等網(wǎng)絡(luò)信息的技術(shù)?!霸谏鲜龇煞ㄒ?guī)的具體落實(shí)過(guò)程中,存在兩方面的挑戰(zhàn)?!?/p>

“一是防范深度合成技術(shù)應(yīng)用生成錯(cuò)誤價(jià)值導(dǎo)向、虛假信息的能力需要進(jìn)一步提升。《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》要求深度合成服務(wù)提供者對(duì)輸入數(shù)據(jù)和合成結(jié)果進(jìn)行審核、建立健全識(shí)別違法和不良信息的特征庫(kù)、依法處置違法和不良信息的生成合成信息內(nèi)容。但是,對(duì)于深度合成服務(wù)提供者如何落實(shí)內(nèi)容管理需要進(jìn)一步細(xì)化,提供者需要不斷提升技管結(jié)合的能力;對(duì)于內(nèi)容管理落實(shí)的具體效果,也有待進(jìn)行持續(xù)性的跟蹤檢驗(yàn)?!逼浯?,何寶宏指出,對(duì)深度合成信息內(nèi)容增加標(biāo)識(shí)的具體規(guī)范也需要進(jìn)一步細(xì)化,文件中明確深度合成服務(wù)提供者提供深度合成服務(wù),可能導(dǎo)致公眾混淆或者誤認(rèn)的,應(yīng)當(dāng)在生成或者編輯的信息內(nèi)容的合理位置、區(qū)域進(jìn)行顯著標(biāo)識(shí)?!暗珜?duì)于如何增加顯著標(biāo)識(shí)以及增加標(biāo)識(shí)的具體方式需要盡快出臺(tái)細(xì)化的要求規(guī)范?!?/p>

超越一般技術(shù)的“破壞性”引發(fā)擔(dān)憂

對(duì)于濫用生成式人工智能技術(shù)的擔(dān)憂在世界范圍內(nèi)都存在。不僅因?yàn)槠涑揭话慵夹g(shù)的“創(chuàng)造能力”和“破壞性”,更因?yàn)槿藗儼l(fā)現(xiàn),生成式人工智能技術(shù)發(fā)展的速度極快。

從OpenAI去年11月推出ChatGPT,到今年3月其迭代品GPT-4面世,僅用了幾個(gè)月的時(shí)間。GPT-4不僅知識(shí)面更廣、回答問(wèn)題更流暢,還可以描述并理解圖片,甚至具備一定自我反思的能力。

OpenAI的首席執(zhí)行官Sam Altman接受采訪時(shí)就曾表示,擔(dān)心這些模型可能被用于大規(guī)模的虛假信息,也擔(dān)心人類被控制?!癈hatGPT是一個(gè)高度受人類控制的工具。但也許會(huì)有人放棄設(shè)置我們目前已有的一些安全限制?!彼a(bǔ)充,“我認(rèn)為,社會(huì)只有有限的時(shí)間來(lái)弄清楚如何對(duì)此做出反應(yīng),如何監(jiān)管,如何處理它?!?/p>

今年3月,美國(guó)特斯拉汽車公司首席執(zhí)行官埃隆·馬斯克曾聯(lián)合1000多名業(yè)界、學(xué)界人士發(fā)表公開(kāi)信,呼吁所有AI實(shí)驗(yàn)室立即暫停訓(xùn)練比ChatGPT更強(qiáng)大的AI系統(tǒng),暫停至少6個(gè)月。其信中提到,在開(kāi)發(fā)強(qiáng)大的AI系統(tǒng)之前,要確信這些系統(tǒng)的影響是積極的,風(fēng)險(xiǎn)是可控的。

同時(shí)公開(kāi)報(bào)道顯示,今年3月31日,意大利個(gè)人數(shù)據(jù)保護(hù)局宣布即日起暫時(shí)禁止使用ChatGPT,并暫時(shí)限制OpenAI處理意大利用戶數(shù)據(jù)。意大利成為首個(gè)禁止ChatGPT的西方國(guó)家,歐盟的多個(gè)國(guó)家也開(kāi)始跟進(jìn),醞釀具體監(jiān)管措施。

各國(guó)政府都在加快出臺(tái)人工智能監(jiān)管法律。據(jù)路透社報(bào)道,英國(guó)競(jìng)爭(zhēng)和市場(chǎng)管理局正在審查人工智能對(duì)消費(fèi)者、企業(yè)和經(jīng)濟(jì)的影響,考慮是否需要新的監(jiān)管措施。法國(guó)隱私監(jiān)管機(jī)構(gòu)正在調(diào)查與ChatGPT有關(guān)的幾起投訴。澳大利亞政府正在咨詢科學(xué)咨詢機(jī)構(gòu),來(lái)考慮下一步的監(jiān)管行動(dòng)。歐洲數(shù)據(jù)保護(hù)委員會(huì)已成立ChatGPT特別工作組;歐盟消費(fèi)者組織則呼吁歐盟消費(fèi)者保護(hù)機(jī)構(gòu)調(diào)查ChatGPT技術(shù)及對(duì)消費(fèi)者的潛在危害。

“鑒于人工智能的技術(shù)復(fù)雜性,世界各國(guó)對(duì)其風(fēng)險(xiǎn)治理均處于探索階段,對(duì)其約束和監(jiān)管仍有賴于法律體系的完善?!狈较杞榻B,歐盟目前正在推進(jìn)全球首部人工智能法案。2023年4月,歐洲議會(huì)成員就《人工智能法(The AI Act)》提案達(dá)成臨時(shí)政治協(xié)議,強(qiáng)化對(duì)生成式人工智能的監(jiān)管,并將人工智能技術(shù)可能帶來(lái)的風(fēng)險(xiǎn)細(xì)化為極小風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)、不可接受風(fēng)險(xiǎn)4個(gè)等級(jí)?!斑@一立法動(dòng)向值得我國(guó)關(guān)注?!狈较韪嬖V記者。


本文標(biāo)題: AI換臉10分鐘內(nèi)被騙走430萬(wàn)元 警惕人工智能技術(shù)濫用

本文地址: http://m.hzmpf.cn/brand/news-7a10kb460c.html

內(nèi)容均來(lái)源于網(wǎng)絡(luò),錯(cuò)誤糾正或刪除請(qǐng)發(fā)郵件,收件郵箱kefu@huangye88.com

2009-2024 黃頁(yè)88版權(quán)所有 京ICP備2023012932號(hào)-1京公網(wǎng)安備 11010802023561號(hào) 京ICP證100626

內(nèi)容均來(lái)源于網(wǎng)絡(luò),錯(cuò)誤糾正或刪除請(qǐng)發(fā)郵件,收件郵箱kefu@huangye88.com