可以从私人数据中恢复“sanitized” images?

机器学习 系统不仅在影响我们日常生活的技术方面变得普遍存在,而且在观察到它们的人中,包括面部表达识别系统。

 images

制作和使用如此广泛部署的服务的公司依赖于经常使用生成的对冲网络(g),通常由第三方产生以擦洗个人图像’身份。但他们有多好?

研究人员在 Nyu Tandon工程学院谁探索了这些工具背后的机器学习框架,发现答案是“not very.”

在论文中“颠覆隐私保留的GANS:消毒图像中的隐藏秘密,”研究人员探讨了私人数据仍然可以从这种深度学习鉴别者作为隐私保护的图像中恢复(PP-GANS.)并且这甚至通过了经验测试。

该团队发现,实际上,PP-GaN设计可以被颠覆以通过隐私检查,同时仍允许从图像中提取秘密信息。

基于机器学习的隐私工具具有广泛的适用性,可能在任何隐私敏感域中,包括从车辆摄像机数据中删除位置相关信息,滥用制作手写样本的人的身份,或从图像中移除条形码。由于涉及的复杂性,基于GaN的工具的设计和培训将外包给供应商。

“许多用于保护可能出现在监控或数据收集摄像机的人的隐私的第三方工具使用这些PP-GAN来操纵图像,” said Siddharth Garg.,NYU Tandon Institute副学院电气计算机工程副教授。“这些系统的版本旨在消毒面部和其他敏感数据的图像,以便仅保留应用关键信息。虽然我们的普通PP-GaN通过了所有现有的隐私检查,但我们发现它实际上隐藏了与敏感属性有关的秘密数据,甚至允许重建原始私人图像。”

该研究为PP-GAN和相关的经验隐私检查提供了背景,制定攻击情景,以询问是否可以颠覆经验隐私检查,并概述了一种绕步经验隐私检查的方法。

该团队提供了对保留保护的GAN的第一个全面的安全分析,并证明现有的隐私检查不足以检测敏感信息的泄漏。

使用小说的书签方法,他们对着最先进的PP-GaN来解决一个秘密(用户ID),从据说是面部图像。

他们表明,他们提出的对抗性PP-Ga可以在传递隐私检查的输出图像中成功隐藏敏感属性,秘密恢复率100%。

注意到经验指标取决于判别者’学习能力和培训预算,Garg及其合作者认为,这种隐私检查缺乏用于保障隐私的必要严谨性。

“从实际的角度来看,我们的结果对使用数据消毒工具的使用以及由第三方设计的专门设计的PP-GAN来说,请注意,” explained Garg. “我们的实验结果强调了现有的基于DL的隐私检查的不足以及使用不受信任的第三方PP-GAN工具的潜在风险。”

分享这个