黄色网站入口国产美女,精品国产欧美另类一区,国产一区二区美女自慰,日日摸夜夜添无码国产

選擇你喜歡的標(biāo)簽
我們會為你匹配適合你的網(wǎng)址導(dǎo)航

    確認(rèn) 跳過

    跳過將刪除所有初始化信息

    您的位置:0XUCN > 資訊 > 安全
    新聞分類

    蘋果曾經(jīng)是用戶隱私保護(hù)狂魔 如今卻成了偷窺狂?

    安全 PRO 作者:陳錫連 2021-08-15 01:43

    長久以來蘋果公司一直將保護(hù)用戶隱私作為公司當(dāng)中最重要的一件事情,并且我相信,蘋果對于用戶隱私的保護(hù)工作是每一位蘋果用戶都有目共睹的。甚至說蘋果對于用戶隱私的保護(hù)稍微有那么一點過頭了。還記得在2015年,某個恐怖分子被美國當(dāng)局擊斃,但是當(dāng)FBI想要查看恐怖分子手中蘋果手機內(nèi)容的時候卻遇到了重重困難。

    為此FBI找到了蘋果公司,希望能獲得蘋果公司的幫助來查看手機當(dāng)中的內(nèi)容,但是蘋果公司卻表示,我們不能讓你們(FBI)查看死掉的恐怖分子手機當(dāng)中的詳細(xì)內(nèi)容,我們要保護(hù)每一位用戶的隱私。

    并且蘋果也一直把用戶隱私保護(hù)作為自己宣傳時的一個重點內(nèi)容。在2020年9月份的時候,蘋果甚至還發(fā)布了一個廣告——Over Sharing(過度分享),來向廣大消費者介紹iPhone的隱私保護(hù)是多么的厲害,視頻描述了人們尷尬地與陌生人分享他們的個人信息,例如信用卡號,登錄詳細(xì)信息和網(wǎng)絡(luò)瀏覽歷史記錄。蘋果表示:“有些事情不應(yīng)該共享。”“這就是為什么 iPhone 旨在幫助您控制信息并保護(hù)隱私的原因?!?/p>

    蘋果一再認(rèn)為用戶隱私是一項“基本人權(quán)”,是公司的“核心價值觀”,在2019年CES展的時候,蘋果甚至包下來了一個酒店的巨幅廣告位置,在廣告上寫著“What happens on your iPhone stays on your iPhone”(在你iPhone上面發(fā)生的事情只會留在你的iPhone上面),以此巨幅的廣告表達(dá)蘋果公司對用戶隱私的重視。

    你看到這里是不是就會感覺到蘋果對于每一位用戶隱私的重視程度是非常高的,比某些Android手機不知道好到哪里去了,下載一個簡單的點外賣APP就會向你索要38項用戶權(quán)限,甚至還要識別你的身體活動,看到這里我一個Android用戶實名羨慕蘋果對于用戶隱私的重視程度了。但是這樣的重視程度會一直持續(xù)下去嗎?

    權(quán)限之多,一頁放不下

    答案是不會的,就在前幾天蘋果公布了一項新的技術(shù),這項技術(shù)打破了其一直在堅持的所謂的重視用戶隱私。蘋果于近日發(fā)布了一項全新的用于掃描檢測“兒童性虐內(nèi)容(Child Sexual Abuse Material)”的端側(cè)工具,那什么是端側(cè)掃描呢,意思就是掃描工作將在用戶設(shè)備上完成。為了完成“兒童性虐內(nèi)容”的檢測,iOS與iPadOS將搭載一項最新技術(shù),這項技術(shù)可以使蘋果檢測在各類蘋果設(shè)備上面接收、保存或者發(fā)送的照片提取哈希值,然后蘋果會用提取到的哈希值和“全國失蹤和受剝削兒童中心(NCMEC)”和其他兒童安防組織提供的已知兒童性虐圖像的哈希(散列)數(shù)據(jù)庫進(jìn)行比對,以此來驗證某些照片或者圖片是不是屬于兒童性虐內(nèi)容,蘋果表示這個數(shù)據(jù)庫將被轉(zhuǎn)為一組不可讀的散列,安全地存儲在用戶的設(shè)備里,之后在用戶設(shè)備之中進(jìn)行比對。并且,當(dāng)用戶在iMessage 上收到或者發(fā)送照片時,系統(tǒng)也會對照片完成監(jiān)測工作,如果系統(tǒng)認(rèn)為這張照片屬于露骨性照片時則會模糊處理,iMessage會警告兒童,并再次確認(rèn)兒童是不是想繼續(xù)瀏覽或者發(fā)送露骨性照片。除此之外,兒童再次預(yù)覽或者發(fā)送露骨性照片,APP還會自動通知家長。

    你看到這里是不是會覺得,嗯!這些檢測都是為了孩子的身心健康著想啊,而且檢測工作都是在本地完成的,這跟用戶隱私有什么關(guān)系呢?上面這些內(nèi)容看起來還算是正常,不急,我們繼續(xù)往下看。同時在蘋果的介紹中還可以發(fā)現(xiàn),蘋果也會使用類似的算法對用戶發(fā)送到iCloud上面的照片進(jìn)行檢測,在上傳到服務(wù)器之前,會給文件進(jìn)行一連串的加密工作。如果上傳到iCloud照片完成哈希值的比對之后,認(rèn)為照片存在兒童性虐內(nèi)容的話,蘋果的服務(wù)器就會對照片進(jìn)行解密,并且由人工進(jìn)行查驗。

    有專家認(rèn)為,盡管蘋果提議CSAM方案的初心是好的,且針對此類違法行為的打擊是絕對正義的。但是這一整套方案繞過了原本旨在加強用戶隱私的端到端加密方案,并且在方案之中還是引入了一個后門,可能會存在嚴(yán)重的安全和隱私風(fēng)險。雖說最近蘋果相關(guān)負(fù)責(zé)人多次聲明,CSAM方案不會導(dǎo)致其軟硬件留下后門,并且會防止政府過度干預(yù)和濫用,但是對于用戶來說只要這項技術(shù)實裝,多少都會讓自己不放心。

    蘋果將在不遠(yuǎn)的將來偷偷的“欣賞”你系統(tǒng)里面存儲著的照片,并且最近有關(guān)于這項新技術(shù)的討論越來越多,但是絕大多數(shù)的討論都是圍繞著用戶隱私還是不是蘋果最重視的事情。之前說的什么“What happens on your iPhone stays on your iPhone”恐怕將會成為廣大蘋果用戶心中最美好的愿景。

    0XU.CN

    [超站]友情鏈接:

    四季很好,只要有你,文娛排行榜:https://www.yaopaiming.com/
    關(guān)注數(shù)據(jù)與安全,洞悉企業(yè)級服務(wù)市場:https://www.ijiandao.com/

    圖庫
    公眾號 關(guān)注網(wǎng)絡(luò)尖刀微信公眾號
    隨時掌握互聯(lián)網(wǎng)精彩
    贊助鏈接