iPhone用AI偵測兒童色情照,卻爆隱私爭議(下)

 

 

​​蘋果手機用AI防兒童色情照,卻爆隱私爭議(下)

蘋果手機用AI偵測兒童色情照,立意良善卻爆隱私爭議,該如何克服呢(下)

前情提要:因著智慧型手機的發展、網路越來越快、雲端越來越普及,導致有心人士大量散發兒童色情圖片。近幾年,全球兒童色情犯罪事件層出不窮⋯⋯因此蘋果使用 AI 人工智慧——這種無人的方式來把關兒童色情圖片的傳播(詳情請看上篇連結),想不到這個 AI 太厲害,竟引發隱私權方面的爭議!

目錄

拓展 Siri 搜尋功能,新增「提醒、干預」

蘋果表示,他們將對 Siri 功能與搜尋進行更新,以提供有相關困擾的監護人與未成年人使用者協助。

例如:當使用者詢問該如何回報 CSAM 相關問題時,蘋果將會結束導向相關機構的聯絡方式,或是提供指引來幫助使用者。

除此之外,若是有使用者像要查詢有關 CSAM 或是敏感、有害的內容,系統也會進行干預,跳出警示告知使用者。

0824-3.jpg

圖片來源:蘋果官網。

難以揮去的隱私疑慮

這些功能,預計今年將會在 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的更新中推出。

在以往,相對於 Android 使用者,蘋果的支持者們最自豪的便是 iOS 的高穩定性與嚴密的隱私保障,而這也是蘋果公司不斷強調的優勢。

不過現在,蘋果這次的做法與過往似乎有了很大的不同。

即使這些措施雖然是為了保護未成年、減少兒童與青少年私密照外流所帶來的傷害,但還是帶來不少隱私與資訊安全的隱憂。

對此,有許多資訊安全專家與機構組織都表示疑慮或反對,認為這項作法「如同在牆上打洞、裝上門後再鎖上。」

雖然有門鎖,但風險依然存在,況且要是鑰匙不慎流出,駭客便會暢行無阻。

除此之外,也有一些人擔心此先例一開,蘋果未來可能因為各國家政府的法律規定和要求,調整審查標準、成為監控工具。例如同志相關內容、政治敏感資訊等等,極權國家的使用者更是有此擔心。

隱私保障與資料運用的平衡難題

兒童色情內容經常被視為犯罪的證據,未成年人通常是在被威脅、利誘或哄騙的情況下拍攝這些內容,而流傳於網路上更是二次傷害。

蘋果此舉,或許是希望透過提高取得相關資訊的門檻,減低可能的需求,進而減少類似的兒童性犯罪再度發生。

然而,當檢警要搜查民宅前都須先向法院申請搜索票的法治社會下,蘋果直接以審核使用者彼此之間的私人訊息和個人儲存空間等方式,來試圖達成防治的目的,是否有符合比例原則?個人的隱私考量與社會整體的治安,該如何平衡呢?

或許是個需要大眾不斷思考與討論的問題。

 

相關文章:

隱私是基本人權!蘋果新功能「App 追蹤透明度」

Google 加強隱私,讓你快速刪除15 分鐘內搜尋紀錄

Google 為保護隱私,棄Cookie 卻改用人工智慧?

Facebook 開源Python 語言的安全與隱私工具Pysa

人工智慧也有喜怒哀樂啦!

人類又輸了?人工智慧設計IC晶片6小時就搞定!

AI打造史上最難羅斯方塊!等高手破解!

全球首屆元宇宙時裝周,複刻20年前的失敗?

全球首屆元宇宙時裝周, 遇到瓶頸 複刻20年前的失敗? 目錄 元宇宙時裝周參與盛況 叫好不叫座?新興技術的行銷瓶頸 由虛擬實境平台 Decentraland 所舉辦的「元宇宙時裝週」(Metaverse Fashion Week...