in ,

私隱大倒退:蘋果傳與政府妥協  加裝neuralMatch至用戶手機檢查相片

再更新:蘋果公佈有關技術詳情,他們會本地化方式分析相片,詳情請按此參考另一篇報道⋯

更新:蘋果向傳媒確認有關消息,但只針對雲端檔案,以及若果用戶經iMessage要傳送資料,又或Siri或搜尋功能尋找與兒童色情相關的內容時才會進行掃瞄。

一直強調尊重私隱,以及私隱度比Android高的蘋果,最近被金融時報FT爆料,指蘋果正打算在美國用戶的iPhone,安裝監控軟件,聲稱是為了防止兒童色情。有關軟件名為neuralMatch,有可能在今星期公佈相關詳情,首階段只在美國推出。

據稱近年來蘋果與其他科技公司,因為其加密技術與美國政府關係變得緊張,科技公司的加密技術令任何人都難以還原私隱數據,令政府想調查疑犯變得十分困難。蘋果今次主動推出neuralMatch軟件掃描用家的手機內容,估計是一種妥協。不過,安全專家擔心,一旦打開先例,任何國家的政府都可能有類似要求,令用家手機私隱度變零。

蘋果的neuralMatch將掃描用家機內的相片內容,將會把其轉換為一些數字,與資料庫作出對比,以得知相片是否涉及兒童色情。若有關機械人發現有問題,就會通知真人審查,若確認真的非法將通知相關執法部門。報道中提到﹐因為有關系統其實不止能辨認兒童色情,還可以找到反政府或恐怖主義內容,讓任何國家都可用當地法例依法向蘋果提出要求,引發嚴重私隱問題或令其他科技公司被逼跟隨,一旦發現問題變失控時,將難以補救。

蘋果就此傳言拒絕回應,暫時上述監控軟件並未正式推出。

記者:阿鬼

天生火爆,用一團火和光合作用,繼續盡力發聲做記者。