恶意数据对抗将成为常态。银行业如何保护数据隐私?
在数字经济时代,我们在享受数据爆炸式增长带来的便利的同时,也深陷数据安全的泥潭。小到诈骗短信、快递信息,大到财务状况、健康状况、网络足迹,我们的个人隐私数据正面临着前所未有的挑战。
对银行来说,数据安全是生命线。一次事故可能造成数亿损失,数亿家庭将受到影响。
新年伊始,雷锋邀请了数字风险控制、数字营销、数字客户服务、数据平台、数据中心、数据安全、数据库、银行云、银行RPA、银行业务系统、十大银行轨道等领域的专家,以“在线云峰会”的形式分享他们对银行技术的理解。
在“数据安全”的轨道上,我们邀请了魏中银行区块链安全科学家严强博士,从技术、业务、合规等角度分享他对银行“数据隐私”的理解。
核心观点:
数据生产者和数据消费者之间的关系不再是“买卖”。
隐私保护技术是打破数据价值融合零和博弈的关键。
我们需要尊重“数据岛”作为数据产业的原生态。
要发展健康的数据产业生态,需要打通私有数据协同生产的“双循环”。
区块链是承载数据信任和价值的**技术。对于隐私计算和人工智能应用中常见的数据质量问题,区块链可以补充或提高效果。
以下是雷锋《人工智能财经评论》编辑的严强博士演讲内容
大家好,我是伟中银行区块链的严强。今天,我很荣幸受到雷锋的邀请。我想和大家分享一些关于数字经济中数据隐私的想法。
数字经济的核心要素是数据。对于许多企业来说,获取高质量的数据是首要任务。近年来,数据隐私权的立法不断细化和完善已成为趋势。
在这个时候,传统的数据业务可能不适合这个过程。
在新的数据隐私合规框架下,新数字经济时代的数据方式必将发生重大变化。这些变化对实际行业有什么影响,具体变化是什么?而为了应对这样的变化,有什么技术手段可以更好地自我调整呢?
新数字经济时代的数据方式
首先,这个共享的第一部分——新的数据方式。
这次云峰会的主题是人工智能。众所周知,人工智能在很大程度上依赖于数据。对于数据本身,根据不同的业务形式,历史上有很多种表现形式,包括大数据、小数据、暗数据、弱数据,现在还有其他类的数据,比如卫星地图或者其他传感器数据。
显然,作为信息化和智能化设计过程中必不可少的燃料,很多企业离不开数据。
同时,我们也注意到AI算法或其他大数据算法都比较成熟。因此,对于行业参与者来说,多数时候,核心竞争力是控制数据量。
因此,新的立法也对获取和使用数据进行价值发现的过程产生了重大影响。数据不再是单纯的信息表达,因为新的立法框架引入了一个新的概念——数据权益。
虽然目前的《数据安全法》还处于草案状态,但草案明确提出,要注重数据本身的使用,在保护民间组织和相关方权益的前提下,以数据为要素促进经济发展,以增进人民的福祉。
同时,回顾国际社会的gdpr,它对数据的使用提出了非常严格的要求,特别是在商业领域的数据使用。其中一点是处罚特别高,可能是集团上一年度全球总收入的4%,也就是2000万元人民币,以较大者为准,所以侵犯数据隐私的成本非常高。
数据权益代表着数据的权益,对传统业务有很大的影响,即数据权益不仅在数据采集阶段发挥作用,而且贯穿于数据流的整个生命周期,包括数据的使用、存储和遗忘。
这些变化显然会对目前的行业产生很大的影响。尤其是数据已经成为不可或缺的生产要素。在大数据和人工智能算法非常成熟的情况下,它是智能发展不可或缺的手段。但是如果我们缺乏数据我们该怎么办呢?
在回答这个问题之前,我们必须澄清一种关系。在新的数据方式下,数据生产者和数据消费者之间的合作关系发生了本质的变化。
在立法之前,两者的关系往往是买卖关系。获得数据后,可以对其进行处理、利用或提供服务,以获得完整的收入。
对于数据生产者、用户和其他提供者来说,在数据授权或数据发布后,往往无权直接干预数据的后续使用。这项权利以前不受法律保护。
在新的立法框架下,两者之间的关系已由买卖转为租赁。
这意味着,作为数据生产者,他从不放弃自己数据的权利,即使他在对方平台上使用对方的服务,这部分生成的数据也只是以租赁的形式提供给对方。
目前,很多应用都完善了隐私政策,对数据的使用进行了披露和承诺,这也是数据使用租赁关系的一种表现。
平台或服务提供商不再拥有数据的所有权,但需要与数据生产者商定如何使用数据,包括如何分配收入权。
除了分配问题,最重要的一点是作为数据生产者,它实际上有权干涉或禁止使用自己的数据,从而控制自己的隐私风险,拒绝不公平的利益分配。这是企业或行业**的变化。
新规定有哪些具体要求?为什么这个要求经常引起热议?
《个人金融信息保护技术规范》描述了私人数据生命周期从收集、传输、存储、使用、删除到销毁的六个阶段。每一阶段对数据版权保护都有不同的要求,涉及到不同的技术规范。
同时,从另一个角度看,整个隐私权合规范围下的数据权益可分为两类。除了保护传统的目标——数据内容,另一类是保护数据权利。
正是后者可能对业务产生更大的影响,包括忘记数据的权利、限制数据使用的权利等等。
这就带来了一个焦点问题——如何平衡业务创新和隐私保护。经过仔细分析,也许它们不是一对不可调和的矛盾。
在新法规生效之前,人们假设企业使用的数据是一个馅饼。条例生效后,馅饼变小了,因为用户本身不再是原来的业务关系,而是演变成了租赁关系。一些用户可能会行使自己的权利,或者因为数据收入不平等和隐私风险而不愿意提供数据。
此时,相应业务的可用数据量变小,数据的价值变小。在这里,为了保护数据权益,可能会出现影响业务规模的零和博弈困境。
但是,如果我们提升到一个更高的层次,从行业的角度来看,这里的零和博弈并不是**的。
纵观整个行业,在法律法规实施之前,实际上存在着数据区域化导致的“数据荒”。一些大机构可能已经收集了大量数据,但对于中小企业来说,获取数据非常困难。
一个典的例子是对网络爬虫的限制。
在那些存在利益冲突的大机构中,他们开放数据访问的意愿非常低,对于整个数字经济来说,数据本身的流通在一定程度上一直处于有限状态。
如果我们能够振兴所有的股票数据,在大机构或更大范围内开放数据源,让它们更好地流通,我们就能把蛋糕做大,产生更大的价值。实现这一目标的关键在于引入技术手段,有效保护私有数据的权利。
在人工智能和大数据方面,我们需要从传统的中心化式算法系统升级到隐私计算。在新的数据方式中,我们需要消除数据协作参与者的隐私问题。
数据隐私推动的行业革命
隐私立法的完善和用户隐私意识的觉醒产生了深远的影响,不仅改变了原有的数据方式,也给数据业务带来了不同层面的变化。
我们先谈谈技术。早期提到隐私保护时,大多数时候只是通过加密来降低数据的敏感度。在数据处理阶段做了一些工作后,被认为对数据有很强的隐私保护。然而,在人工智能或隐私计算环境中,它实际上并不完美。因此,在技术层面上,如果真的要实施,实际上需要引进更多的前沿技术。
在业务层面,越来越多的用户现在意识到数据本身是有价值的。至于隐私,他对个人风险的认识越来越全面。这些因素必然会影响用户的行为,影响基于数据的人工智能的业务。
在合规层面,合规主要是指新的合规业务,尤其是整个生命周期的合规需求。我们需要对现有的商业模式做一些改变,否则一旦涉足海外市场,必然会遇到合规风险。
接下来,在第二部分中,它将分为三个层次:技术、业务和法规遵从性。
我们先来看看技术层面。这里非常重要的一点是,随着信息技术的飞速发展,会产生越来越多的数据,特别是现在我们讲的是5g和物联网。
什么概念?目前,很多数据是基于人的,每个人都会产生很多数据。然而,在5g和物联网普及的时候,大多数时候,数据生成的单位都是以商品概念为基础的,不再受70亿人口的限制。数万亿的各种智能设备不可避免地会产生不同所有权的海量数据。
相应地,也带来了“数据孤岛”问题。有人认为,由于合规要求,会出现孤岛。因为法规遵从性需要保护这些数据,所以我们不能允许它们相互通信。但事实上,这种说法并不那么准确。既然我们认识到了数据的价值,也应该认识到“数据岛”是原始生态。
比如,由于资产是有价值的,我们不会随便要求人们分享自己的资产,尽管学术论文中也有“资产孤岛”一词。很多时候,我们需要尊重这些“孤岛”的存在。
在技术层面上需要做什么?有几个关键词——多方、海量、高维、异构。
对于后三者,大数据和传统人工智能已经发展了这么多年,它们都有更好的解决方案。然而,许多缔约方仍面临许多挑战。
为什么?我们来看看多方隐私大数据的效果。
最典的影响之一是数据不会从库中传出。这是一个非常生动的说法,但并不准确,因为数据不出库并不意味着私人信息不出库,也不意味着敏感信息不出库。
例如,在记者招待会上回答记者提问,询问某个人是敏感群体还是敏感事件时,主办方回答:“我们对此不予置评”。很多时候,提问者可以根据答案的语气和字眼做出主观判断——高概率或敏感。
数据服务也是如此。
“无数据输出”的字面意思是明文中的“无数据输出”。传统的解决方案包括数据散列、数据加密和数据脱敏。在人工智能领域,这些方法真的安全吗?
可以使用更传统的方法,如内容编码、k-匿名和差异隐私。这里强调的是,每种方法的能力都有一个边界,事实上,需要一些支持安全性的假设。
以差别隐私为例。在2013年和2018年的计算理论峰会上,一篇论文分析了差异隐私在处理高维大数据时的理论局限性。题目是,如果我们想处理高维大数据,这是一个计算困难的问题。计算困难意味着很难实现多次。因此,差别隐私权也具有能力边界。我们需要根据实际业务场景来选择是否适用。
数据不仅仅是一种手段,我们的最终目标是什么?可用不可见?
值得注意的是,“可用与不可见”只是一个很小的目标,还有很多问题没有得到很好的回答,比如谁能用谁看不见,有限使用的次数和方法是否有限制,数据主体能否控制可用与不见的方法等。
很多时候,在数据协作中,尤其是在人工智能学习中,如何验证结果的正确性也是一个非常重要的考虑因素。现在很多智能业务还涉及一些相对敏感的服务,这将导致更敏感的后果。如果我们误判了该怎么办?如果多方合作的结果不正确,如何找出恶意参与者?这些问题不能直接回答,所以这只是一个小目标。
为了实现我们的大目标,刚才提到了哪些额外的数据隐私保护点:不仅需要一种技术,还需要集成多种技术,并针对不同的场景进行优化。
三条主要技术路线如下:
Tee可信计算。tee的优点是它是一个硬件加速的隔离环境,对计算没有限制,任何业务都可以运行,而且开发非常友好。然而,设计需要一个中心化式部署器,它只能有一个受信任的根。此外,主流云供应商不支持tee云部署。
所以我们在实际部署中必然会回归到实物部署的范畴,在实际使用中也会有一些障碍。
与可信计算相比,联邦学习和安全多方计算对硬件的依赖性要小得多,但也存在一些取舍。
联邦学习擅长各种模的联合训练和演绎,非常适合现有的数据业务合作模式。
安全多方计算是一项历史悠久的技术。在过去的五六年里,出现了许多成熟的工业解决方案。特别是在学术界,更受关注的可用性问题得到了很大的改善。同时,它支持各种通用计算和各种安全模。它的独特优点是可以支持恶意模。
什么是恶意模?如果有多个参与者一起做模训练或联合演绎,只要一个人作恶,就可以在第一时间或在最终结果产生之前终止操作,避免作恶方影响最终结果的正确性。
在关键业务场景中,这是非常必要的,作为一种权衡,其性能会相对较低。
回到隐私大数据,海量、高维、异构、多方,如何支撑它们?如果发生纠纷,特别是在关键业务中,如何有效识别恶意计算的参与者,这些都是我们需要应对的技术挑战。
下一个挑战是业务级别。如果企业想要采用机器学习、隐私计算和相对智能的数据驱动解决方案,这里有一些重要的考虑因素。
如果是咨询公司给出的报告,一般有两个维度:一是商业价值,二是成熟度或可信度。
我们特别推荐一个大家都应该关注的新维度,即数据隐私相关风险。
如果我们设计一个多方协作,在整个协作过程中会不会存在严重的隐私风险?或者不仅仅是模训练,我们还通过模推导等功能,通过隐私计算生成报表类。如果由于一方的错误行为而导致一些错误的结果,后果有多严重?
这个新的维度将直接影响用户体验。如果应用在民生或金融领域,有些服务就非常敏感。如果机器判断失误,对当事人的后果可能相当严重。
这也带来了一个重要的相关性问题。如果用户或合作伙伴有隐私问题,是否有技术手段影响现有的业务系统,造成额外的隐私风险。
这里有几种风险。
如何利用一些攻击手段,进行一些联合学习训练或演绎,如果攻击者在联合模训练时,是否能推断出合作伙伴的私有样本数据,或者是否能在训练过程中注入有利的偏倚。
同时,不仅仅是为了训练,还有我没有参加的扣除。我可以在扣除过程中提取您的相关培训隐私数据,或者我可以操作您的推荐结果。
从数据安全的角度来看,这些都是非常关键的问题。普通人可能很难实施。因为机器学习很好,隐私本身就是一项比较先进和复杂的技术。因此,战斗需要魔法。
风险1:这是一篇2017年发表的CCS论文。这些攻击在本质上可能是实验性的,但可以作为参考。
本文的结论是:只要联合训练,如果能得到明文梯度,就可以或者有很大的概率得到合作伙伴的隐私数据。
可能认为只有模梯度通过联合训练进行训练,联合训练不直接包含私有数据。然而,由于攻击者还使用了机器学习算法和一种针对网络的Gan生成技术,因此从梯度信息中恢复了合作伙伴的训练样本。
本实验主要针对深度神经网络学习,恢复成功率较高。
同时,本文还指出,即使加上全局微分隐私权,对攻击结果的影响也很小。
从PPT截图中我们可以看到,作者从梯度中还原了对方的训练样本照片,并且在使用差异隐私后,还原后的照片与原始照片的差异并不是很大。
所以从业务层面来说,这还是一个很大的风险,我们需要提高警惕。
风险2:如果你参加一个联合模训练,有可能注入偏见吗?答案是肯定的,但代价是什么?
这是标普2018年发表的一篇**会议论文,指出在一些线性回归模中,线性回归模由于具有良好的解释力,被广泛应用于许多风险控制或类似预测模中。作者指出,只有12%的恶意样本会导致显著的预测偏差。
这与直观地要求50-60%或更多的样本是非常不同的。
这也是一种神奇的对抗,但它不是随机的样本注入,因为在参与联合训练时,参与者对模本身有认知,所以它涉及到一个优化问题,即最小化产生偏差所需样本的比例。
因此,我们在进行联合训练时,也应该考虑到这一点。参与者是否有可能只贡献12%或更少的数据,但试图抵消整个模的影响?没有动力时风险很低,但如果有动力,我们需要更加小心。
风险3:如果你不参加模培训,只使用API,你能猜出相应的隐私数据吗?笔者提出了一个非常重要的观点,答案是可能的。
本文的实验表明,在神经网络中,只要得到输出标号,往往可以预测结果。结合其置信度和网络结构,可以推断并恢复训练出的相应标签样本。
例如,得到的标签是张三河的置信水平,很多置信水平都有小数点,比如0.837。然后采用类似的优化算法进行恢复和重建,最终能够较好地恢复样本。
和以前相比,因为之前我们直接得到了梯度,但是现在我们没有得到训练的梯度,效果差了一点,但是很容易认出左右两张照片是同一个人的。
作者做了两组实验,一组是神经网络实验,另一组是决策树实验,这两组实验在许多风险控制模中都有应用。很有意思的是,把决策树作为风险控制模是否会被其他人推回到我们的训练样本中?
如果给定的置信区间的精度足够高,仍然有很大的概率进行推测,决策树甚至会产生黑箱效应。
什么是黑匣子效应?我不知道你的决策树是什么样子。我只知道你对最终结果和结果的信心。通过不断的询问,我终于得到了你们的实际样品。但是,我们也有一个具体的方法来处理它,那就是加强模API的安全性。
风险四:不再是猜测训练样本,而是操纵最终的演绎结果不可行?真管用!
这篇论文是关于,如果你想在人脸识别系统中伪装成另一个人,至少需要什么?答案是我们需要这样一副眼镜。这副眼镜不是随便生产的。它是通过一个类似的机器学习算法,一个部分统计的黑盒优化算法得到的。
对于同一个人,查询API 25次,通过其返回值,进行黑盒优化,逼近其特征值,对原始人脸图像进行校正,最终生成这副眼镜的多彩风格。在实验中,实现了*的伪装率。只要你戴一副眼镜,你就可能被认作另一个人。
同时,只要戴上一副眼镜,基于机器学习的人脸检测就可能失败。
可见这些风险是客观存在的,因此我们不仅要考虑算法的智能性,还要综合考虑安全加固措施,否则可能会引入意想不到的业务风险。
**一个层次,合规性,是一个相对较新的概念。一年前,人们还在争论地址簿和化身数据的所有权问题。现在很明显,它们都属于用户。
不仅如此,用户在使用过程中有很多环节,一些特殊的环境也有特殊的遵从性要求。
我想特别谈的两点是有限的数据使用和数据被遗忘的权利。有限的数据使用是,我给你一个数据,只能用于广告推荐。如何确保它只能用于广告推荐?在合规框架下,不是用户的证书,而是企业的证书,对整个技术方案或基础设施都有要求。
由于企业无法证明自己,在使用数据时,应该在设计时告诉用户系统的具体算法和目的。
另一个是数据被遗忘的权利。现在让我们看看这两者的影响。
限制数据的使用是一个很大的变化。我们原来的许多系统平台都是纯文本学习,现在我们很可能转向密文学习。以下是一些过渡选项:
例如,可信计算的转换成本相对较低。因为它是一个容器化的独立计算方案,所以一个项目被称为读后燃烧,其中90%以上是可信计算。
这里也有一个问题。我们需要找到一个可信的第三方,因为容器本身的真实性、可靠性或隐私性需要由一个中心化的可信机器来保证。但是,这是一个单一的点,很难实现多个点。如果在多方合作中找不到可信赖的第三方,整个业务将难以推广。
因此,在大多数情况下,我们更喜欢联合学习和安全多方计算。
第二,被遗忘的权利也是遵约产生的新要求。
什么是被遗忘的权利?很多时候,用户都是移动的。例如,用户今天在平台上注册,但一段时间后,他们会以各种理由取消帐户。这是非常关键的一点。
一旦用户注销,作为企业,它需要删除用户数据对现有业务模的影响。但大多数时候,这个模是一个非常复杂的过程,一个用户的数据可能涉及到模的多个方面,很难完全消除特定用户数据的影响。
目前,最明确的解决方案是重建。我们将替换原始数据和原始模。这样,我们就可以确保被删除用户的数据不被使用,但对业务也有很大的影响。
这里有一些其他的想法。我们可以将模模块化,每次只更新一些与用户相关的数据,然后引入迁移学习等手段来降低模再培训的成本。
目前,这仍然是一个悬而未决的问题,我们需要提出建议。
合规的**一点是监管审计。为了限制我们的使用,我们经常需要使用密文进行训练、推导或计算。
在强力监管的要求下,这一过程也会给监管带来一些新的要求。然而,如果我们想要实现跨领域的监管,比如跨境或更广泛的数据交换,挑战仍然存在。
以“一带一路”为例。它涉及许多国家,如意大利,这是一个欧盟国家。
如何更好的支持监管,特别是对隐私大数据的监管,如何更好的处理和实现,不需要参与者的合作,不需要给出解密密钥,监管人如何在作为合作方的同时,独立检查所需内容,如何**限度地减少信息泄露,实现分布式信任,需要利用区块链相关技术。
微焦点银行在数据隐私领域的前沿探索
在谈到上述方面之后,我们需要一套完整的解决方案来应对数据隐私驱动行业的巨大变化。在**一部分,我们必须提到“新的数据基础设施”。
谈到新的数据基础设施,我们需要回到原点——数据本身。
数据应该产生自己的价值。除了这些关键词——多方性、海量性、高维性、异构性之外,实际上还有一些其他的特点,如易**、非排他性、非竞争性等。别人得到数据后,用100次可能和自己用一次没什么区别。
去中心化意味着有许多孤立的岛屿。我们应该尊重这些孤岛,尊重它们之间的联系,尊重它们的多样性、价值聚合性和价值认知的多样性。
价值认知的多样性是国际社会的一个重要课题。对于私人信息泄露,如果当事人认为自己的隐私受到严重侵犯,可以要求巨额罚款。
我们通常认为数据只有通过聚合才有价值。聚合对公司很有价值,但个人数据对个人很有价值。
有些事情,比如医疗数据,被泄露后会对个人生活造成影响。这些都是真实的问题,但他们的认知其实是多样的。如何照顾好每一个人,特别是数据生产要素的实现,需要提供一系列的技术支持。
要实现数据生产要素化,需要构建一整套程序来实现其效果,需要对其产权进行界定,对其价值进行存储和评估,最终价值得以流转。大方向是围绕价值,来确定数据的收益。
同时,我们还需要控制数据的风险。风险来自隐私和安全。因此,数据元生产力的释放需要解决三个核心问题:安全存储、可信传输和协同生产。
**,为了发展健康的数据产业生态,我们需要通过私有数据协同生产的双循环。
第一个循环是指个人数据的应用,即个人与企业之间的数据交换,实际上是一种反馈关系。数据不仅可以停留在单个企业中,而且可以在企业之间流动,因此引入了第二个循环,即需要不同的技术能力来满足和实现协同生产的效果。
在理想情况下,这两个周期将进一步互补,产生正反馈,形成多方隐私大数据价值整合的良性循环,显著提升用户体验和企业效率。
为此,我们也做了一些实践,整理了一些案例。我们最近发布了一份白皮书,其中结合了各种技术来改进我们关键业务应用程序的隐私保护。
一些典的例子如下
首先,粤澳健康码的互转互认,是指跨境时在隐私合规的情况下,数据如何可信,后台数据未连接时,如何实现互操作。
第二,医疗处方的网上流转,医疗处方本身涉及多种类的私有数据,不仅仅是数字签名和数据加密。
三是绿色旅游普惠平台。这个项目结合了物联网的能力,因为绿色包容往往与车辆有关。如何以安全私密的方式将物联网数据接入平台,完成相应的计算和打分,还涉及到很多数据隐私问题。
四是联合营销,效果非常明显,与传统方式相比,可以提高20%以上的广告转化率。
在之前的分享中,我们提到了使用联合学习可能存在的风险,但在实际部署中,我们会加强方案的私密性和安全性。值得一提的是,我们不能只相信一项计划的能力而不提及其风险。我们还需要对其进行全面的考虑和评估。
从长远来看,我们希望新的数据基础设施能够采用相对可控的底层技术,更加安全可控。
另外,可验证的隐私性、安全性,不仅仅是一个技术标签,整体方案需要提供技术手段,允许用户直接参与数据授权和有限使用的过程。
**,高效的算力,因为每种技术都有自己的优势。在很多情况下,特别是安全技术的算力可能没有那么强,所以我们需要做一些整合来找到一个**的解决方案。
这里有一组数字与大家分享。对于千万的大数据隐私交集来说,不到3分钟就可以完成。对于数以万计的多方联合乘法计算,它可以在不到3毫秒的时间内完成。同时参与隐私计算的组织数量没有限制。
回顾刚才的关键词,我们可以看到它们是多方的、海量的、高维度的。
许多传统方案是两方或三方架构。如果第四和第五个参与者同时参与隐私计算,或者引入了一个中央协调器,则中央协调器本身可能会泄露机密。在这个时候,合作是非常困难的,但我们没有任何限制,在非常安全的条件下实现这些要求。
大数据也是如此。事实上,今天的私人数据,包括政府部门的数据,不管是人口还是其他方面的数据,都是小到几千万。事实上,有数以亿计的数据。如果我们不能很好地处理存储,很多应用程序就很难使用。
近日,央行发布了相关技术标准。目前,我们的各项指标都符合这个标准,效果比较好。
这是我们构建“新数据基础设施”解决方案的主要开源矩阵。
除了人工智能,区块链是承载数据信任和价值的**技术。对于隐私计算和人工智能应用中常见的数据质量问题和恶意追踪问题,区块链可以补充或提高效果。
具体来说,区块链领域涵盖了以魏中银行Bcos为首的金莲梦开源工作组的底层开源平台FISCO,以及消息协作平台weevent和分布式数字身份weidentity可以与机器学习紧密结合,包括可视化中间件webase,跨链协作平台wecross连接数据,场景解决方案集wedpr专注于数据隐私保护。
我们只有一个最终目标。我们希望通过搭建这样一个基础设施,解决数据行业每个人的技术难点和业务痛点,进而更好地开发应用,发展生态,全面释放数据生产力。
这里的矩阵综合了能力的各个方面,最终达到了这样的效果。当然,许多具体的技术领域也在积极探索,我们诚邀合作伙伴与我们携手共创美好未来。
文章标题:严而强的微型银行:数字经济时代隐私保护的途径与技巧
文章链接:https://www.btchangqing.cn/177015.html
更新时间:2021年01月10日
本站大部分内容均收集于网络,若内容若侵犯到您的权益,请联系我们,我们将第一时间处理。
真是汗啊 我的帖子好少啊 加油区块链