德鲁克说过,不确定的时代最大的危险不是不确定本身,而是依然用过去的逻辑在做事。
从2006年主数据管理为核心的数据治理的概念被提出以来,数据治理的目的和主要工作是管理数据,让数据的质量更高,更安全。当我们回顾过去的数据治理的项目的时候,大部分都以一堆文档,标准和规章制度为主要成果,而业务部门对数据治理的价值感知并不强烈。
到了数字化时代,数据从资源变成了生产要素,精益数据方法认为,数据治理的目标要以让数据产生价值为目标,方法也要从繁重的以制定标准为手段,以项目的方式为主走向轻量级,主动式,智能化,运营式的精益数据治理。
价值驱动,围绕业务场景,构建精益的技术工具和平台去利用数据资产,解决数据问题,产生业务价值,是精益数据治理的核心要义。
精益数据治理的终极目标是
消灭数据治理中孤立的概念和工作岗位
数据治理已经成为数字化转型领域的热门词语,所有的企业谈数字化转型必提数据治理。数据治理并不是一个新概念,数据治理早在2005就被提出来,有成熟的体系和方法,比较权威的如DAMA数据治理框架。但是,从实际的数据治理项目来看,很多数据治理项目出现了三大现象:
很多数据治理项目独立于业务应用之外,全面的构建企业级数据标准和规范,治理的颗粒度很细,包括数据的标准格式,字段类型等,希望毕其功于一役,希望全员都遵从这个统一的规则。
出发点和目标是好的,从目前效果来看,这样的项目鲜有好的反馈,业务部门的反馈往往都是没有感觉到对业务的价值,只看到了一堆标准让他们强制遵守。
很多数据治理项目产出四大成果:庞大的数据标准规范,众多的数据治理流程,人数众多的数据管理组织机构和岗位,和一个数据治理工具平台。
往往最后出现规范流程和岗位最后都停留在文档层面,并没有切实地执行下去,新的业务系统该怎么做,还是怎么做,工具平台最后也被业务紧迫,变化快等理由束之高阁,并没有利用起来,或者成为了阻碍业务发展的瓶颈。
数据治理项目年年做,治理完一批数据,项目圆满结束,可是半年以后到了应用的时候,问题依然出现,又要从头再来,数据治理项目的成果不可持续。
传统数据治理的三大现象,究其根本,是四大问题导致,如图5-2所示:
图5-2 传统数据治理四大痛点
数据的问题贯穿整个数据价值链的,从数据生产到数据利用环节,,而很多企业的数据治理并没有能够全面的系统的解决这些问题,呈现四大痛点:
将数据治理作为独立的项目来执行,业务部门参与度不够,不直接与业务系统相关联,这样的治理模式带来以下的问题:
难以获得真实的反馈:不深入到业务一线,无法获得最真实和本质的问题反馈,通过传统调研的模式,获得的不一定是最真实的声音,可能是应付的辞令。毕竟数据治理团队不与业务系统直接挂钩,那么考虑问题的出发点是不一样的,目标也是不一致的,所以很难获得真实的反馈。
形成的标准难以落地推广:产生数据质量问题的原因,不是没有标准,而是很多标准不被知道,不被理解,所以如果不能够让标准制定者与数据的生产,消费者一起战斗,那么这些数据标准依然无法走出高阁,深入一线。
很多数据治理以项目方式来组织,有明确范围,有时间周期,有结束终点的。数据治理项目往往分为两类,一类是以构建企业级数据资产体系为目标的,一类是为了解决某一个特定领域的数据问题为目标。前者产出的结果是一系列数据标准体系和岗位职责,后者输出的是一个被梳理好的数据集。
这样项目制的数据治理往往会导致治标不治本,不可持续的问题。项目过程中,由于进度的压力,所有人会朝着项目本身的验收目标推进,过程中往往都是很顺利的,但是也会规避很多实际的问题。项目一结束,团队也解散了,后续的工作又回到原样。然后等过了一段时间,问题又不断积累,产生,往往又需要再启动一次数据治理的项目。
目前很多数据治理项目是被动式的治理模式,无法主动预测,主动规划,主动干预,业务部门是被动的参与,很多问题出现了再进行治理。数据的问题是持续流动的产生的,如果不能从源头全链路拉通,则无法达到根治的效果。
不少企业的数据治理逐渐以工具作为落地的手段,这是很好的趋势,但是只靠工具是无法解决根本的问题的,工具必须配合以体系,流程,职责和评价,才能够更好地发挥作用。上系统不是目的,只是手段,不要认为有了系统,数据治理的问题就能够解决。
那么如何能够走出传统数据治理的范式呢,精益数据方法论提出了以价值为核心,场景为抓手的,“Z”字形精益数据治理。