在《数据分类分级-结构化数据识别与分类的算法实践》这篇文章中讲到了结构化数据识别与分类的算法实践,那么这些算法能力如何以标准产品的方式落地,并帮助客户解决在数据分类分级过程中遇到的各种问题呢?本文将站在工程的视角,结合我们的思考和经验,从整体的大框架上介绍用九智汇数据分类分级产品敏感数据识别技术方案和能力,希望对大家有所帮助,想了解细节的,欢迎通过公众号联系进行线下沟通。
背景
虽然整体上大家做分类分级的背景以及目标基本一致:满足监管要求;为数据合规和安全体系建设打好基础。但是实施落地的过程不尽相同,每个客户所处的行业不同,所要遵循的分类分级标准不同,同时每个客户的数据也是截然不同,定制化需求是普遍存在。
当前一些业务模式相对简单的公司,使用excel的方式人工进行数据分类分级;规模更大业务更复杂的公司自研或采购第三方数据分类分级产品或服务。市场上大部分供应商采取产品+服务的方式服务客户,其中产品敏感识别能力较弱更多以运营功能为主,敏感数据识别更多的以人力服务的方式帮助客户进行梳理,虽然能满足监管要求,但是存在以下公认的问题:
1、无法做到持续运营,交付的产物是基于当时的数据情况,后续新增数据要么需要人介入重新进行梳理,要么无法保证能够持续准确识别;
2、准确率低或不稳定,特别是在数据元信息质量较低的情况;
3、人力投入成本高。
仅满足监管要求不是我们的终极目标,我们希望用九智汇分类分级产品在满足监管的前提下,为数据合规和数据安全打下坚实的基础,所以我们:
1、采集样本数据,走样本数据为主、元数据为辅的技术路线,一方面可以保证已建设的识别能力可持续识别,另一方面准确率稳定性不受元数据质量影响;
2、提供智能化、 无侵人、开箱即用的同时,打造易用、灵活、强大的自定义功能,满足客户的定制化需求,一方面降低交付成本,另一方面

本文介绍了九智汇数据分类分级产品的敏感数据识别技术方案,强调了从样本数据为主、元数据为辅的技术路线,以及产品的智能化、自定义功能,以满足客户差异化需求和提高数据合规性。文章详细阐述了数据源扫描、元数据同步、数据抽样和识别敏感数据的关键环节。
最低0.47元/天 解锁文章
3211

被折叠的 条评论
为什么被折叠?



