新浪新闻 国内

解决数据流通安全问题,这有一个“新武器”

新京报

关注

原标题:解决数据流通安全问题,这有一个“新武器” | 新京智库

新京报讯(记者 郑伟彬)近年来,数据安全已成为数字经济时代最为迫切和最基础的安全问题。为此,我国相继颁布《网络安全法》、《数据安全法》和《个人信息保护法》等法律。同时,数据的价值和安全冲突日渐加剧,如何在兼顾平衡两者,成为当前重要的研究课题。

为此,依托清华大学人工智能研究院设立的瑞莱智慧组织“数据安全与隐私计算”专题研讨会,邀请了不同领域的专家共同探讨。专家认为,上述法律较好地平衡了安全与发展的问题,同时,结合隐私计算,可以解决流通过程中的数据泄漏、在安全条件下提升数据价值。

《个人信息保护法》保护力度仅次欧盟GDPR

据统计,2020年,我国数据要素市场规模达到545亿元,预计在“十四五”时期将达到1800亿元的市场份额。数据要素市场在快速发展的同时,也面临着一些问题,比如数据安全问题。因此,相关法律的出台有其必要性和及时性。

国家工业信息安全发展研究中心大数据研究室主任杨玫表示,数据领域相关法律在今年密集发布,实际上是遵循市场规律的结果,也就是大数据和人工智能(AI)在各行业的应用都已经达到一定的市场规模之后才颁布。

“我认为现在出台是恰逢其时,统筹安全与发展的概念,不管任何行业或领域都是这样的规律。”杨玫认为,当前相关数据法律的出台呼应了市场的发展阶段。换句话说,相关法律的出台并不会阻碍数据行业或是AI行业的发展。

瑞莱智慧CEO田天认为,上述法律的颁布对AI企业来说并非一件坏事,在明确了哪些事情可以做,要在怎样的规范之下进行,AI企业可以做更多新的应用开发。“对于AI产业,这相当于是新的起跑线,在合规的情况下大家发展自己的技术实力和对场景的理解,会不断有新的发展机会。”

中伦律师事务所合伙人陈际红则强调,在立法过程中,中国是比较注意平衡发展和安全的。虽然《个人信息保护法》的保护力度仅次于欧盟的GDPR(《通用数据保护条例》),但中国的立法整体上是兼顾了个体权益保护、数据流通和行业发展等问题。并且,《数据安全法》和《个人信息保护法》的出台对产业来说是大浪淘沙,涉及黑产的企业可能会被淘汰,但是有技术、能够解决问题的企业一定有发展空间。

中国信通院云计算与大数据研究所大数据部副主任闫树则表示,《数据安全法》专门有一部分就是强调发展与安全并重,它并不是完全只讲安全的法律。虽然法律的出台会对现有模式带来冲击,但这种冲击是一个必要的过程,可以解决此前发展模式中存在的一些问题。

 “可用不可见”的隐私计算

数字经济的快速发展,提高了数据的价值,但与此同时,数据价值与数据安全之间的鸿沟与矛盾也愈演愈烈。在大数据、人工智能技术广泛应用之前,简单的数据流通可以通过技术手段或法规手段保证数据的安全性。

但随着这些新技术的发展,数据本身的量和价值都在井喷,这进一步加剧了数据安全问题。闫树表示,隐私计算创新数据流通的发展模式。传统数据交易的方式——通过API接口或直接的数据传输——已经被证明失效了。

而诸如对数据进行脱敏或匿名化处理,却是以牺牲部分数据维度为代价的。这导致这些被脱敏的信息无法被利用。隐私计算提供了另一种解决问题的路径。“这相当于在满足法律合规要求下提供了另一条可行路径。”闫树表示。

杨玫介绍说:“数据价值的体现,很多时候并不需要知道数据具体是什么,只要数据计算后返回的结果。这正是隐私计算可以实现的,也是其核心模式。”隐私计算提供了数据流通、使用的新模式。隐私计算具有数据“可用不可见”的特点,使它在保护隐私的前提下,实现数据开放共享。

在回答新京报记者提问时,闫树认为,隐私计算为政府数据开放共享提供了一个思路或解决方案。通过这种方式开放数据,对政府来说,风险和数据都是可控的。杨玫则表示,隐私计算可以作为地方政府促进大数据和数字经济的抓手和突破点,比如实现数据流通、共享的交易所建设,或是对数字政府、数字社会等更多的场景和领域赋能。

隐私计算既要保证数据安全,也需关注算法安全

不过,需要强调的是,隐私计算只是解决流通阶段的数据安全问题。田天强调,在牺牲安全性前提下进行各类隐私计算的技术没有任何意义。隐私计算作为一项发展中的技术,现阶段业内缺乏统一的安全性标准。如果不考虑安全性问题,那么隐私计算也就不需要存在了。

本质上,由于密码学上的证明安全与实际安全并不相等,现阶段的隐私计算技术面临安全性难以被论证或证明的困境,很多假设安全的方法在实际应用存在严重的安全性漏洞。同时,田天强调,隐私计算和上层应用一定要密不可分,不能切割开来。如果将两者割裂开来,会带来很多新的安全性问题和算法歧视问题。

田天表示,由于隐私计算的可用不可见特点,一旦上层算法和下层数据割裂开来,将可能导致算法开发人员无法感知其中潜在的歧视风险。或者,由于开发人员并不清楚具体处理的数据是什么,所以即使数据受到故意干扰,被黑客投入“脏数据”“毒数据”,也无从获知。这也就提高“数据投毒”成功的可能性。

所以,隐私计算对安全性的要求比一般产品的安全性要求高很多。它不仅要面对已知风险,同时还要面对很多未知风险。这也是田天团队一直在做的事情。去年年底瑞莱智慧发布了隐私保护机器学习平台RealSecure,在确保数据安全的情况下,能够支持更多的人工智能算法和人工智能场景,同时支持全方位的安全评估验证和各类安全防护巩固模块,隐私计算执行速度也远高于业内平均水平。田天也强调,隐私计算不能脱离场景而存在,否则将导致造成数据价值难以闭环。

新京报记者|郑伟彬

 

责任编辑:武晓东 SN241

加载中...