
“假拜登來電”后美國擬宣布:用AI生成語音撥打機器人電話非法
聲明:該文章來自(澎湃新聞)版權由原作者所有,K2OS渲染引擎提供網頁加速服務。
·美國聯(lián)邦通信委員會將在未來幾周內表決,是否將使用AI生成的語音撥打機器人電話(robocall)定為非法。委員們將在未來幾周內對該提案進行表決。
·專家指出,語音克隆公司研發(fā)App時,對于跟名人有關、誤導性較強、傳播風險較大的視頻,可以在傳播過程中加強顯性標識的設計,提醒受眾。
當地時間1月21日,新罕布什爾州一些選民稱接到了“拜登總統(tǒng)”的自動留言電話,告訴接聽者不要在該州初選中投票。
“人工智能模仿真人生成以假亂真的語音、圖片和視頻來欺騙消費者,這正在制造混亂。無論電話中是你喜歡支持的名人或政客,也不論電話中的親屬與你關系如何,當他們來電求助時,我們都有可能成為這些AI偽造電話的目標?!?/p>
針對近期美國發(fā)生多起AI深度造假事件,當地時間2月1日,美國聯(lián)邦通信委員會(FCC)主席杰西卡·羅森沃塞爾(Jessica Rosenworcel)提議,將使用AI生成的語音撥打機器人電話(robocall)定為非法。
此前,AI冒充美國總統(tǒng)拜登給選民打電話、知名歌手泰勒·斯威夫特AI虛假“不雅照”在網上瘋傳,恰逢美國大選年,多起AI深度造假事件引發(fā)人們對人工智能造假的擔憂。
未來幾周內對提案進行表決
機器人電話(robocall)也被稱為預錄電話,使用計算機控制的自動撥號器來發(fā)出預先錄制好的信息,就像機器人一樣,一般以推銷或傳播某種信息為目的,頻繁騷擾手機用戶。
美國聯(lián)邦通信委員會表示,機器人電話中用人工智能生成的聲音“在過去幾年中不斷升級”,并且“有可能通過模仿名人、政治候選人和親密家庭成員的聲音來制造錯誤信息迷惑消費者”。
羅森沃塞爾表示,她提出的宣告式裁決(Declaratory Ruling)將“根據現(xiàn)行法律認定這種新興技術是非法的,這將為我們在全國各州總檢察長辦公室的合作伙伴提供新的工具,他們可以利用這些工具打擊騙局,保護消費者?!眻蟮婪Q,委員們將在未來幾周內對該提案進行表決。
此次提議是在美國新罕布什爾州居民接到冒充總統(tǒng)拜登的電話后不久提出的。當地時間1月21日,該州一些選民稱接到了“拜登總統(tǒng)”的自動留言電話,告訴接聽者不要在新罕布什爾州初選中投票。
白宮新聞秘書卡琳·讓-皮埃爾(Karine Jean-Pierre)22日回應稱,“那通電話確實是假的,(拜登)總統(tǒng)沒有錄音。我可以證實這一點。”新罕布什爾州總檢察長辦公室表示,正在對這些“欺騙性”信息展開調查。拜登的競選經理朱莉·查韋斯·羅德里格斯(Julie Chavez Rodriguez)隨即在一份聲明中表示,已與新罕布什爾州總檢察長溝通,競選團隊正在積極討論。
美國人工智能技術干預選舉的行為早有先例,不僅僅是偽造語音。2023年芝加哥市長選舉前夕,“芝加哥湖畔新聞”(Chicago Lakefront News)發(fā)布視頻抨擊溫和派民主黨人保羅·瓦拉斯(Paul Vallas)對槍擊事件視而不見。雖然瓦拉斯競選團隊譴責該視頻由AI生成,但視頻已經在互聯(lián)網上廣泛流傳。瓦拉斯最終競選失敗可能也與該視頻給他帶來的負面影響有關。
“假拜登”電話背后語音克隆公司已確定
語音克隆初創(chuàng)公司ElevenLabs證實,偽造的拜登語音是由該公司提供的工具生成。目前,ElevenLabs已暫停利用深度造假技術發(fā)布信息的賬戶。
根據ElevenLabs官網介紹,這家語音人工智能研究公司能夠以29種語言生成語音。該公司的安全政策規(guī)定,在克隆某人的聲音之前最好獲得其許可,但未經許可的克隆可以用于非商業(yè)目的,包括“有助于公共辯論的政治言論”。此外,該公司警告,不得將克隆聲音用于欺詐、歧視、發(fā)表仇恨言論或任何觸犯法律的在線濫用。
據《連線》雜志1月26日報道,ElevenLabs在新一輪融資中籌集了8000萬美元,目前估值已超過11億美元,是名副其實的“獨角獸”公司。公司投資者包括知名投資人安德森·霍洛維茨(Andreessen Horowitz),GitHub前首席執(zhí)行官納特·弗里德曼(Nat Friedman)和AI實驗室DeepMind的聯(lián)合創(chuàng)始人穆斯塔法·蘇萊曼(Mustafa Suleyman)等知名人士。
AI深度造假技術為何防不勝防?
深度造假(Deepfake)是英文“Deep learning”(深度學習)和“Fake”(偽造)的混成詞,指利用深度學習技術生成合成圖像、音頻或視頻的技術。由于公眾人物的視頻、音頻、圖片資料的公開性,為AI訓練提供了大量素材,因此名人經常成為AI造假的受害者。
互聯(lián)網安全組織“網絡尖刀”的一位匿名技術專家告訴澎湃科技(www.thepaper.cn),深度造假技術制作的內容在視覺、聽覺上非常逼真,很難單憑肉眼或傳統(tǒng)的技術手段辨別真?zhèn)巍9粽呖梢岳眉夹g手段隱藏深度造假的痕跡和特征,使其難以被檢測到?,F(xiàn)在互聯(lián)網上存在大量圖片和視頻數據,這些數據用于訓練深度學習模型,從而也被深度造假技術利用,“可用的數據集越多,模型的質量就越高,深度造假的結果離真人越近?!?/p>
在傳播過程中如何加強對此類視頻的監(jiān)管?中國社會科學院大學互聯(lián)網法治研究中心執(zhí)行主任劉曉春在接受澎湃科技采訪時建議,語音克隆公司研發(fā)App時,對于跟名人有關、誤導性較強、傳播風險較大的視頻,可以在傳播過程中加強顯性標識的設計,明確標明這是一個合成內容,提醒受眾。
劉曉春強調,在顯性標識之外,技術層面上也可以設計隱性標識,這樣在追蹤溯源時,也能從技術層面識別來源或合成的渠道。“如果能夠清楚地標明它是由哪些渠道的技術合成,這樣風險也能控制住?!眲源赫f。
前述“網絡尖刀”技術專家稱,深度造假識別技術比人類更敏銳,深入動作、光線、分辨率上的破綻,在源頭發(fā)現(xiàn)造假內容,通過識別偽造的特征和異常模式,可以盡早發(fā)現(xiàn)和阻止深度造假內容的傳播。
[超站]友情鏈接:
四季很好,只要有你,文娛排行榜:https://www.yaopaiming.com/
關注數據與安全,洞悉企業(yè)級服務市場:https://www.ijiandao.com/
- 1 看總書記關心的清潔能源這樣發(fā)電 7904174
- 2 今年最強臺風來襲 7809623
- 3 澳加英宣布承認巴勒斯坦國 7713627
- 4 長春航空展這些“首次”不要錯過 7618607
- 5 43歲二胎媽媽患阿爾茨海默病 7521370
- 6 iPhone 17橙色斜挎掛繩賣斷貨 7425342
- 7 老奶奶去世3年 鄰居幫打掃門前落葉 7331845
- 8 三所“零近視”小學帶來的啟示 7236423
- 9 女兒發(fā)現(xiàn)父親500多萬遺產用于保健 7141458
- 10 英國航母從南海“溜了” 7042247