蘋果開發AI人工智慧做兒童色情守門員卻引起爭議?

蘋果開發AI人工智慧做兒童色情守門員卻引起爭議?

前情提要:因著智慧型手機的發展、網路越來越快、雲端越來越普及,導致有心人士大量散發兒童色情圖片。近幾年,全球兒童色情犯罪事件層出不窮⋯⋯因此蘋果使用 AI 人工智慧——這種無人的方式來把關兒童色情圖片的傳播(詳情請看上篇連結),想不到這個 AI 太厲害,竟引發隱私權方面的爭議!

 

拓展 Siri 搜尋功能,新增「提醒、干預」

蘋果表示,他們將對 Siri 功能和搜尋功能來進行更新,提供協助給有相關困擾的監護人和未成年的使用者。

例如:當使用者詢問應該如何回報 CSAM 相關問題時,蘋果將會結束導向相關機構的聯絡方式,或是提供指引來幫助使用者。

除此之外,若是有使用者像要查詢有關 CSAM 或是敏感、有害的內容,系統也會進行干預,跳出警示告知使用者。

3.jpg

圖片來源:蘋果官網。

難以揮去的隱私疑慮

這些功能,預計今年將會在 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的更新中推出。

在以往,相對於 Android 使用者,蘋果的支持者們最自豪的便是 iOS 的高穩定性與嚴密的隱私保障,而這也是蘋果公司不斷強調的優勢。

不過現在,蘋果這次的做法與過往似乎有了很大的不同。

即使這些措施雖然是為了保護未成年、減少兒童與青少年私密照外流所帶來的傷害,但還是帶來不少隱私與資訊安全的隱憂。

對此,有許多資訊安全專家與機構組織都表示疑慮或反對,認為這項作法「如同在牆上打洞、裝上門後再鎖上。」

雖然有門鎖,但風險依然存在,況且要是鑰匙不慎流出,駭客便會暢行無阻。

除此之外,也有一些人擔心此先例一開,蘋果未來可能因為各國家政府的法律規定和要求,調整審查標準、成為監控工具。例如同志相關內容、政治敏感資訊等等,極權國家的使用者更是有此擔心。

隱私保障與資料運用的平衡難題

兒童色情內容經常被視為犯罪的證據,未成年人通常是在被威脅、利誘或哄騙的情況下拍攝這些內容,而流傳於網路上更是二次傷害。

蘋果此舉,或許是希望透過 AI 人工智慧提高取得相關資訊的門檻,減低可能的需求,進而減少類似的兒童性犯罪再度發生。

然而,當檢警要搜查民宅前都須先向法院申請搜索票的法治社會下,蘋果直接以審核使用者彼此之間的私人訊息和個人儲存空間等方式,來試圖達成防治的目的,是否有符合比例原則?個人的隱私考量與社會整體的治安,該如何平衡呢?

或許是個需要大眾不斷思考與討論的問題。

 

相關文章:

隱私是基本人權!蘋果新功能「App 追蹤透明度」

Google 加強隱私,讓你快速刪除15 分鐘內搜尋紀錄

Google 為保護隱私,棄Cookie 卻改用人工智慧?

Facebook 開源Python 語言的安全與隱私工具Pysa

Google的FLoC是一個糟糕的主意?(上)

Google的FLoC有安全疑慮?(下)

蘋果新功能竟讓Facebook急跳腳?

 

arrow
arrow

    uidesignxiaoshow 發表在 痞客邦 留言(0) 人氣()