#1 - 2021-8-8 10:50
酒瓶里的虾 (虾说)
https://www.solidot.org/story?sid=68472

苹果发布新闻稿,证实它将扫描美国 iPhone 手机上的儿童色情照片。苹果称,它将在三个方面引入儿童安全保护功能:Messages app 将加入新的工具在收到或发送露骨照片时警告儿童及其父母,收到的照片将会被模糊,如果儿童决定浏览照片他们将会被告知父母会收到信息,苹果声称它利用的是设备上的机器学习功能去分析和做出判断,它并不能访问照片;iOS 和 iPadOS 将引入新的技术允许苹果检测储存在 iCloud Photos 中的已知 CSAM(Child Sexual Abuse Material)图像并报告给 National Center for Missing and Exploited Children (NCMEC),这一哈希匹配是在设备进行的,苹果表示除非发现 CSAM 图像它不会知道用户储存的内容;Siri 和 Search 将在用户尝试搜索 CSAM 相关主题时进行干预。这些功能将包含在今年晚些时候释出的 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 中。安全专家对这些功能可能成为政府监视工具或被执法部门滥用表达了担忧。

呵呵
#2 - 2021-8-8 12:06
演都不演了是吧
#3 - 2022-12-7 10:37
(沉默是金,这位正确,请编一下你的故事。 ... ... ... ... ...)
出发点我觉得OK!(bgm81)

就像人脸识别用于无人机杀人一样,结果未必可控!(bgm103)
#4 - 2022-12-7 18:47
(当你长大,会成为绝望者、失败者与被诅咒者的拯救者吗? ...)
等等,“儿童色情图片”和“发给儿童的色情图片”不是一个概念吧?
#5 - 2022-12-7 18:58
可惜隐私安全性不可控,所以这个扫描功能的宣布犹如大声宣告他们在监测用户信息(bgm03)
#6 - 2022-12-7 19:03
(~∧o∧o@∧o@∧o~∧o∧o-∧o~∧o∧o@∧o@∧o~∧o∧o-∧o)
关联阅读:
当 Google 认定你在犯罪
当 Google 关闭你的账号,你是很难找到方法上诉去推翻搜索巨人的决定的。即使你是付费用户,依赖 Google 仍然是一个巨大的风险。同样的事情一次又一次发生。《纽约时报》报道了一位旧金山家庭主夫的不幸经历。2021 年 2 月的一个周五晚上,Mark(他没有提供完整姓名以免名誉受损) 注意到儿子的生殖器似乎发胀了,他抓起 Android 手机拍摄了照片。新冠疫情当时正在流行,护士建议发送照片给医生评估。医生很快诊断了问题,开了抗生素,情况迅速好转。但真正的麻烦才刚刚开始。因为 Google 有自动工具扫描儿童色情内容,在拍摄照片两天之后他的 Google 账号就以存在有害内容的理由关闭了。讽刺的是,作为软件工程师 Mark 曾为一家大公司开发自动工具下架被用户标记为有问题的视频内容。他以为在申述阐述情况之后 Google 会迅速解封账号。他很快发现过于依赖 Google 的问题——他的 Google Fi 账号也被关闭了,必须换手机号码。Google 之后还拒绝了他的上诉,没有给出更多解释。2021 年 12 月,Mark 收到旧金山警局的邮件,披露了他因为“儿童色情”而受到的调查,警方调查人员的结论是没有犯罪发生,案件了结了。他再次上诉到 Google 并提供了警方的证词,但一无所获。他的账号已经被永久删除了。Mark 考虑起诉 Google 但认识到并不值得。
#7 - 2022-12-7 19:08
(がお , V !)
IF YOU ALLOW THE GOVERNMENT TO BREAK THE LAW DURING AN EMERGENCY – THEY WILL CREATE EMERGENCIES TO BREAK THE LAW
借必要之恶行恶,使恶无穷尽也
#7-1 - 2022-12-8 23:19
#8 - 2022-12-8 20:53
(~∧o∧o@∧o@∧o~∧o∧o-∧o~∧o∧o@∧o@∧o~∧o∧o-∧o)
关联阅读2(bgm38)
苹果放弃了扫描手机上儿童色情的 CSAM 计划
去年八月,苹果宣布了一项受争议的决定:它将扫描美国用户 iPhone 手机上的已知儿童色情照片,利用来自 National Center for Missing and Exploited Children (NCMEC)的 CSAM(Child Sexual Abuse Material)图像哈希值去匹配用户手机上的图像哈希,如果发现至少 30 次匹配成功它将会在审核之后报告给相关机构。在引发广泛批评和反对之后,苹果暂停了该计划。现在它放弃了扫描手机上儿童色情的计划,改为加强“Communication Safety”功能,允许父母和看护者通过家庭 iCloud 账号选择加入保护功能,以确保儿童的通信安全,在儿童试图发送或接收含有裸体的照片时发出警告,阻止和减少新 CSAM 的产生。
#9 - 2022-12-9 08:44
删除了回复
#10 - 2022-12-9 08:44
删除了回复
#11 - 2022-12-9 08:54
(“在看”的分全是瞎打的,完结后如果能看完会好好评分 . ...)
这可太注重隐私啦
#12 - 2023-6-27 19:01
(我想生活在一個,沒有言語審查的地方 ... ... ... ... .)
公權力必須嚴加約束