DQ 地球圖輯隊
檢測裝置內有無 兒童色情 (CSAM) 圖片 ── 這到底是為了打擊犯罪的合理管制,還是侵犯隱私呢?
打擊兒童色情 Apple將自動過濾用戶裝置內的照片 | DQ 地球圖輯隊
Apple指出,這項技術甚至可以抓到那些經過編輯的照片,無論是裁切過、尺寸被調整,又或是從彩色改為黑白,通通都逃不過「neuralMatch」的比對。
-----
贊助DQ 您的支持,能讓DQ成就更好的內容
愛地球不要等!DQ 需要你的贊助
DQ 地球圖輯隊
掌握世界大小事,就從追蹤地球圖輯隊開始!
@DQnews | Linktree
冬瓜🥒
目的或許是好的,但是手段我完全不贊同
最近感覺要胃出血☆大叔玉
如果有人拍自己小孩的照片
或者有留以前小時候的自拍照
感覺都會被抓出來呢
皐🦝浣上不睡教
手段不贊同+1,希望有更好的方式達到這個目的

而且這個方式感覺許多相關配套也不完全
況且誰能完全保證其他沒有兒童色情的照片不會有隱私權的問題
內文說沒問題,但我覺得有心人要駭進去看也不是不可能
琴安🐹🥔每天都要勇氣爆發
我比較好奇要怎麼定義兒童「色情」的部分
會不會之後連存自己小寶寶時洗澡的照片都會被檢舉⋯⋯
dbfox
dbfox
大廠只剩下微軟沒檢測了?
BGs
之前FB也有類似的機制,後來出現各種羞辱的結果,例如黑人的裸體不會被偵測到裸露
帕西🦊
dbfox : 不是喔 微軟早在skydrive就有了,關鍵字搜索下去就一堆了
嗚啦嘎嘎@~@𓅨🌈S3?Q
感覺會誤傷一堆人RRR
帕西🦊
Apple在自家設備開啟的「先例」我覺得比較是這次要注意的點。
這個系統可以依靠資料庫找出符合的內容,並且修改後也可以,那如果資料庫的內容不是這次的「兒童色情」呢?
帕西🦊
蘋果拒絕FBI解密手機這件事很知名,讓蘋果在隱私權上大大加分。
那這次事件再加上之前的雲上貴州呢?
如果政府需要蒐集的不是兒童色情犯罪者而是異議者?
別忘了這套系統還不是伺服器幫你掃描,是本機即可達成。
冬瓜🥒
今天偵測的是兒童色情圖片,明天偵測的就是異議言論
θώθ
「在iPhone和iPad內建「neuralMatch」後,當用戶的照片要自動儲存至Apple的雲端系統前」這段是上傳到icloud存起來才會被比對

但標題寫得比較像是他就直接在照片app裡面比對
標題和內文說明的好像有點不太一樣?
所以是哪個啊?
(雖然兩個都很有問題就是了)
❦神經治療雖然有效但頭好痛❦
θώθ : 資訊系的來幫你解答:

還沒上傳到雲端就先進行比對,所以是還在裝置內的時候就比對。
比對完畢才會上傳喔
但不是在「照片app裡面」比對,是用手機上的其他app讀取照片進行比對。
小e
手段不贊同。如果兒童色情可以檢測,開了「為了預防犯罪,可以合法檢測手機資料」的先例,感覺以後只要巧立各種名目就能任意審查手機裡的各種資料。
小e
話說我不太懂它所謂「通知執法單位」的部分,要怎麼成立罪名啊?假如我在網路上下載了一張兒童色情照片,我就是兒童色情準犯罪者了嗎(
LeeTiger
小e : 以美國法律來說, 只要你有瀏覽, 就是一條, 下載後存著, 又是一條, 應該都是3rd degree, 散播就是2rd degree...
小e
LeeTiger : 原來如此,真是超乎想像.....
θώθ
❦神經治療雖然有效但頭好痛❦ : 感謝您解惑!但怎麼感覺更可怕惹O口O
❦神經治療雖然有效但頭好痛❦
θώθ : 是啊!所以又引起一波新的爭議了!
對使用者來說真的是比掃描雲端資料庫還可怕
易雲𓅄低潮。
不管我平常在抓的圖片違不違法,我都不願意被人監控啊...
誰知道之後會把這功能拿來檢查甚麼類型的資訊。
Foxx
其實重點是, 它一定要掃描過才會知道是不是它們表示有問題的照片吧

所以其實這個作法就已經把大家的照片都掃描歸檔好了, 以後党有需要對付其他的照片也很容易抓的到人
載入新的回覆