众所周知,得益于独特的封闭式iOS系统,iPhone在安全隐私方面一直深受用户好评。
不过,大家也都知道,近两年来,iPhone不断被曝出“好消息”。
例如,上个月,一些用户报告收到许多不明原因的短信,内容涉及色情或赌博。
更进一步,女子在地铁上收到了陌生人的“空投”。内容包含不雅图片,其涉嫌性*扰。
在App Store中,经常出现伪装成外壳的不雅应用程序,受到大量互联网用户的批评。
看来一向以封闭、安全为目标的iOS并不是“滴水不漏”,因为只要是一个系统,就总会存在漏洞。
不过,苹果并没有“袖手旁观”,并提供了解决方案。
例如,针对不法分子利用 AirDrop 进行性*扰的行为,苹果在 iOS 16.2 官方版本中关闭了“所有人”选项,只允许所有人打开十分钟。
开启此功能十分钟后,AirDrop 将自动切换回“仅限联系人”模式。
6月6日,苹果发布了全新iOS 17,带来了包括横屏待机、个性化通话、NameDrop等多项新功能。
此外,苹果还增加了“自动屏蔽敏感信息”的新功能。
通过该功能,iOS可以自动识别并屏蔽裸照、色情内容等敏感信息。
用户可以打开此功能以避免意外收到引人注目的图像。
也就是说,以前有FBI警告,现在iPhone上有“苹果警告”。
启用后,如果用户收到敏感照片,系统会自动对其进行模糊处理。
如果用户想查看,则必须再次手动点击右下角的“查看”才能显示完整图像。
通过额外的保险,您可以预防公共场所的社会性猝死。如果您不小心打开照片,仍有恢复的空间。
这个功能其实类似于Twitter的控制机制。在 Twitter 上浏览大图片时,系统也会执行类似的处理。
然而,两者之间也存在差异。一种是在设备端处理,另一种是在服务器端处理。
苹果表示,该功能使用的所有检测都是在设备上完成的,苹果无法查看用户之间共享的内容。
这样一来,苹果看起来就更安全了。
据称,iOS 17 中的该功能是苹果去年为儿童推出的通信安全功能的扩展。早在2021年,苹果就发布了新的白皮书《儿童保护延伸》。
其中一项功能是扫描 13 岁以下儿童手机上的照片,并将检测到的儿童敏感内容发送给执法部门。
同时,未成年人账户的iMessage也将受到密切监控。
一方面,该功能可以防止未成年人的账号接收裸照等敏感照片,保护未成年人的身心健康。
另一方面,尝试通过iMessage发送露骨照片的未成年人也会受到系统警告。
该功能的使用场景和目标群体目前正在进行更大规模的测试。
截至目前,该功能已在“消息”、“AirDrop”、“电话”应用中的联系人海报(联系人海报)、FaceTime 消息和第三方应用中可用。
说到这里,上面适用场景中的“第三方应用”就有点意思了。
是否有可能,未来用户使用iPhone私自观看“学习资料”,会受到“苹果警告”?
这总是有点奇怪,你不觉得吗?