为了保障公共监视的隐私,MIT科学家主动添加噪音数据,分析误差范围控制在2%

来源:36氪时间:2022-04-18 14:40:38

公共摄像头的边界在哪?

相信大家还记得2017年的“水滴直播”,当时该视频直播平台上出现了全国多地校园视频监控的直播画面,被直播的场景包括教室、食堂、操场甚至宿舍,清晰的画面和声音让人仿佛置身校园中。

据了解,用户只要购买了某公司的视频监控摄像头产品,就可以主动选择把监控内容分享到该平台上

对于此,有看到自己的身影出现在直播画面中的网友直说“太可怕了”,也有网友表示,“如果完全不知道自己被直播了,这肯定侵犯了隐私权”。

中国传媒大学法律系副教授刘文杰评论到,“在不影响社会秩序的前提下,个人在公共场所仍然有权保持一定的行动自由和安宁”。

但如今面对越来越多的公共监控摄像头,人们的隐私又应该如何才能得到保证呢?

最近,MIT的研究人员就开发出了一个系统,能够允许分析师提交视频数据查询,并在最终结果中添加一些额外数据,也就是噪音,以确保个人不会被识别。

据了解,该系统建立在对隐私的正式定义之上,也即“差异隐私(differential privacy),这允许系统在不泄露个人身份信息的情况下访问有关私人数据的汇总统计数据。

该研究已经以论文的形式进行了发表。

论文链接:

https://arxiv.org/abs/2106.12083

保护隐私的监控视频分析系统,误差仅2%

目前,安装公共摄像头的目的更多还是为了安全考虑,这些摄像头已经变得比过去那些带颗粒状的照片要成熟得多了。

而自疫情爆发以来,视频监控还可以帮助卫生人员测量戴口罩的人员比例,以及帮助交通部门监测车辆、自行车和行人的密度和流量,同时为企业提供对购物行为的更好理解。

但是在这一切的便利之下,为什么隐私会是最后才来思考的因素呢?

现在已经有一些公司会在视频中模糊人脸,但这样类似的做法不仅使分析师无法验证研究问题,比如他们是否按要求佩戴了口罩,而且这样的方式并不总是奏效,因为系统可能会跟丢一些人脸数据。

针对这一现状,麻省理工学院计算机科学与人工智能实验室(CSAIL)的研究人员与其他机构合作,共同开发了一个系统Privid。Privid能够让分析师提交视频数据查询,并在最终结果中加入噪音数据,以确保个人身份无法被识别,以此更好地保证出现在监控视频片段的人的隐私。

通常情况下,分析师需要访问整个视频,才能得到要实现或者验证的目的,但Privid的出现改变了这一情况。

对于分析师而言,他们仍然可以获得需要的信息,但访问权得到了限制,这对一些恶意的分析师来说更是如此。为了实现这一点,Privid不再一次性在整个视频上运行代码,而是将视频分成小块,在每块上运行处理代码

同时最终的结果并不是直接从每个片段中获得,而是需要将这些片段聚合起来,这其中就包括一些额外添加的噪音。也正是因为噪音数据的加入,最终结果的信息大概会存在2%左右的误差。

例如,代码可能会输出在每个视频片段中观察到的人数,聚合之后得到“总和”,以计算戴口罩的总人数,或一个“平均值”,以估计人群密度。

好在,Privid允许分析师使用自己的深度神经网络,这让分析师可以更加灵活地提出Privid设计者所没有预料到的问题。在各种视频和查询中,Privid的准确率在非私有系统的79%-99%之间。

麻省理工学院CSAIL博士生、Privid论文的主要作者Frank Cangialosi说,“我们处于一个摄像头几乎无处不在的时代。试想每个街角都有摄像头,你去的每个地方都有摄像头,那如果有人获取到了这些数据,他们就能建立起某个人出现在某些地点的时间线。人们已经在担心GPS的位置隐私问题,而视频数据的汇总不仅可以捕捉到你的位置历史,还可以捕捉到你在这些地点的情绪和行为等等”。

添加噪音也是一门学问

除此之外,还值得注意的一点是,论文引入了一个新的关于隐私的概念。

“基于期限的隐私”(duration-based privacy)将隐私的定义与隐私的执行脱钩。在二者混为一谈的情况下,如果隐私目标是保护所有人,那么执行机制需要去找到要保护的人,但并不能保证效果。有了这个机制,就不再需要指定所有的东西,也无需隐藏更多的信息。

比方说,我们现在有一段俯瞰一条街道的视频。Alice和Bob两个分析师都表示他们想计算每小时经过街道的人数,于是他们提交了一个视频处理模块,并要求进行汇总。

第一个分析师Alice是来自城市规划部门,他们希望利用这些信息来了解人流模式,为城市规划人行道。他们的模型会对人进行计数,并为每个视频片段输出这个计数。

另一个分析员Bob则是恶意的。他们只希望识别每一次某个人经过摄像头的时间。他们提交的模型就只是在寻找这个人的脸,如果这个人在场系统会输出一个大数字,否则就是零。他们希望如果这个人在场,总和会是非零的。

从Privid的角度来看,这两个查询看起来是一样的。很难可靠地确定他们的模型内部可能在做什么,或者分析员希望将数据用于什么。这就需要噪音登场了。

Privid执行了这两个查询,并为每个查询添加了相同数量的噪声。在第一种情况下,因为Alice是在计算所有的人,这个噪音只会对结果产生很小的影响,但很可能不会影响到有用性。

但是在第二种情况下,因为Bob寻找的是一个特定的信号,那么额外添加的噪音就足以使他们无法确定这个人的具体位置。如果他们看到了一个非零的结果,可能是因为这个人确实在那里,或者是因为模型输出了“零”,但噪声使其成为非零。Privid不需要知道任何关于这个人出现的时间或地点的信息,系统只需要知道这个人可能出现的时间的一个粗略的上限,这比弄清楚确切的位置更容易说明,而这是先前的方法所依赖的。

不过还存在一个问题,那就是要添加多少噪音

最理想的情况当然是,添加的噪音恰好足以隐藏每个人,但又不至于多到对分析人员毫无用处。向数据添加噪音并坚持在时间窗口上进行查询,意味着结果不会那样准确,但并不影响实际参考价值,同时保障更好的隐私。

正如研究人员所总结的,“在建立Privid时,我们不主张增加公共视频监控和分析,但无法否认的是这类研究已经相当普遍”,因此,在这类分析继续保持主流增长之势时,如何改善公共监视的隐私环境,将会成为未来的一大主流课题。

关键词: 视频监控 研究人员 麻省理工学院

责任编辑:FD31
上一篇:
下一篇: