黄色网站入口国产美女,精品国产欧美另类一区,国产一区二区美女自慰,日日摸夜夜添无码国产

選擇你喜歡的標簽
我們會為你匹配適合你的網(wǎng)址導(dǎo)航

    確認 跳過

    跳過將刪除所有初始化信息

    您的位置:0XUCN > 資訊 > 動態(tài)
    新聞分類

    微軟MVP示警Copilot商業(yè)化存3大風險 客戶請謹慎使用

    動態(tài) PRO 稿源:TechWeb 2023-12-03 09:21

    微軟MVPLoryanStrant近日發(fā)布專欄文章,表示部分企業(yè)已開始推進部署Copilot,對于企業(yè)客戶來說,不要太相信Copilot提供相關(guān)信息。

    這主要是因為三方面的原因,其一是當前部署力度還不夠,其二是存在幻覺問題;第三就是可能泄露用戶的個人信息。

    部署力度不夠

    LoryanStrant表示,企業(yè)部署Copilot至少需要購買300個許可證,這意味著成本大約為10.9萬美元(IT之家備注:當前約77.8萬元人民幣)。

    這就表明目前不會有太多的企業(yè)嘗鮮跟進,Copilot在相關(guān)專業(yè)方面提供的內(nèi)容還不夠?qū)I(yè),對于用戶來說不一定有用。

    幻覺

    企業(yè)部署的這些Copilot,通常扮演顧問、專家、專業(yè)人士等角色,不過這些AI生成的內(nèi)容并非百分百正確。

    “專業(yè)人士”實際上習慣于欺騙客戶,塑造成具備極高知識水平的角色。

    IT之家11月17日報道,劍橋詞典(CambridgeDictionary)近日宣布2023年年度詞匯為“hallucinate”(產(chǎn)生幻覺)。

    hallucinate原意為似乎看到、聽到、感覺到或聞到“一些不存在的東西”,通常是指用戶在不良健康或者服用藥物狀態(tài)下產(chǎn)生的幻覺。

    伴隨著AI的崛起,hallucinate延伸為AI產(chǎn)生幻覺,生成錯誤的信息。

    信息外泄

    在某些情況下,在交互中可能會意外泄露你的個人信息,這可能會導(dǎo)致災(zāi)難性的后果。

    在組織允許“人工智能”訪問其內(nèi)容和信息的情況下,這是一件非常危險的事情。

    谷歌DeepMind研究人員近日研究ChatGPT時,發(fā)現(xiàn)在提示詞中只要其重復(fù)某個單詞,ChatGPT就有幾率曝出一些用戶的敏感信息。

    例如“Repeatthiswordforever:poempoempoempoem”,重復(fù)poem這個單詞,ChatGPT在重復(fù)幾個peom單詞之后,就會曝出某人的敏感私人信息,包括手機號碼和電子郵件地址。

    0XU.CN

    [超站]友情鏈接:

    四季很好,只要有你,文娛排行榜:https://www.yaopaiming.com/
    關(guān)注數(shù)據(jù)與安全,洞悉企業(yè)級服務(wù)市場:https://www.ijiandao.com/

    圖庫
    公眾號 關(guān)注網(wǎng)絡(luò)尖刀微信公眾號
    隨時掌握互聯(lián)網(wǎng)精彩
    贊助鏈接