发布时间: 2024-11-28 09:31:47 来源:产品中心
多点DMALL成立于2015年,是一站式全渠道数字零售解决方案服务商。数字化解构重构零售产业,提供端到端的商业SaaS解决方案。目前,多点DMALL已与120多家连锁零售商、品牌商等达成合作,覆盖四个国家和地区15000家门店,模式受到广泛验证。
多点大数据部门使用StarRocks逐步替代了Impala、ImpalaonKudu、ApacheKylin等存储引擎,实现了存储引擎的收敛,简化了实时数据处理链路,同时也能保障较高的查询并发以及较低的响应延迟要求。
多点大数据部门为内部业务开发团队、数据分析师、外部用户以及合作伙伴,提供了基础的大数据产品、平台服务,帮助零售企业解决了从基本的数据汇总管理、统一的数据计算应用、到各种场景下对数据的多模式使用的需求,可覆盖零售企业绝大部分数据诉求。
技术层面,多点大数据部门基于Hadoop开源技术栈,并进行了部分二次开发后构建起了以下的一个技术架构全景图。从下到上分为基础设施层、数据源层、数据集成层、离线/实时计算层、集市层、分析存储层、数据服务/应用层,数据开发、数据模型中心与运维管理层对各层提供支持。
基础设施层:包括超大带宽的专线网络;公有云、私有云、机房托管的混合云部署;
数据集成层:DataBus是多点自研数据同步平台,解决企业内各业务线之间、跨企业组织之间以及跨行业的数据汇聚、融合等问题,将不同系统的数据相互打通,实现数据自由流动;
离线计算层:利用Hive/Spark高可扩展的批解决能力承担离线数仓的ETL和数据模型加工;
实时计算层:利用Flink/SparkStreaming完成实时数据的ETL(包括维度扩充,多流Join,实时汇总)等;
离线/实时集市层:使用数仓分层模型构建ODS(原始数据层)、DWD(数据明细层)、DWS(汇总层)、DIM(维度层)、DWT(主题层)、ADS(应用层),并依据公司业务拆分不同的数据域;
数据服务/应用层:该层通过提供BI分析产品、数据服务接口、营销、报表类产品,向内部运营人员、外部客户、合作伙伴提供数据分析决策能力。
上述架构解决了多点绝大部分数据诉求,在整个架构中,无论是基于Hive、Spark的离线计算,基于Flink、SparkStreaming的实时计算;基于HDFS、Kafka的存储;基于数仓分层模型建设等方案都已基本成熟。但是在OLAP领域,无论是多点还是业界仍然处于百家争鸣,各有所长的状态。纵观多点在OLAP引擎的探索实践中,遇到了各种各样的问题,总结起来如下:
由于上层业务场景复杂,各个场景的技术难点、核心点均不一样。多点生活在整个技术架构升级的过程中先后引入了HBase、Elasticsearch、Druid、ClickHouse、ImpalaonKudu、ApacheKylin等OLAP引擎。但是随技术栈增多,技术曲线陡峭,没有充足的资源进行多技术栈的维护,造成了比较高的技术成本。
多点的数据分析场景大概能分为离线更新分析场景、实时更新分析场景、固定维度分析场景。
例如多点的精细化用户运营平台,其核心的功能是基于用户、消费、行为、设备等属性,提供多维度筛选条件,并通过自定义条件实现用户分层,便于进行精细化用户运营。
针对数据更新为T+1的分析场景,原主要使用的分析引擎为ClickHouse。利用ClickHouse构建“大宽表”模型,将事实表与维度表提前进行关联,对外提供单表聚合的SQL查询,以及通过构建DWT主题宽表,提供Adhoc查询;该场景面临的问题是:虽然ClickHouse单表查询强悍,但是Join能力不强,需要提前进行关联,将多表关联成单表,会存在额外的开发成本。
实时更新场景主要是实时监控经营的各项指标,如当前时间段内的GMV、下单数量、妥投数量、指标达成、对比、环比等指标。为客户的经营决策提供更具备时效性的参考依据。
针对数据为实时(秒级)更新的场景,原主要使用ImpalaonKudu引擎,采用Lambda架构,基于相同的主键,将流式的预计算的结果数据、批计算的结果数据,基于相同的主键进行merge。
上述方案中的FlinkAGG部分,该程序的功能包括窗口内的预计算、多流Join等操作。当业务需求变更或者上游数据结构变动的时候,要升级FlinkAGG程序,以及离线ETL的任务,类似于“烟囱式”的迭代开发,开发效率低下。资源消耗层面,在Flink里面做预计算,时间窗口的选取以及内存占用之间也需要平衡。
固定维度的分析场景主要是针对固化的、标准的业务场景做多元化的分析,多维分析可以对以多维形式组织起来的数据来进行上卷、下钻、切片、切块、旋转等各种分析操作,以便剖析数据,使分析者、决策者能从多个角度、多个侧面观察数据仓库中的数据,从而进一步探索包含在数据中的信息和内涵。
针对分析维度固定的分析场景,按照业务上常用的分析指标以及维度,此前使用ApacheKylin进行cube预计算。但是使用ApacheKylin也会遇到如下问题:
1)由于多点业务场景涉及的维度比较多,各种类目、营运组织的组合,会导致cube膨胀,占用比较多的存储资源;
2)当数据重跑以及新增维度,指标的时候。针对已经在线上运行的cube模型,为保障数据重跑时候服务依然可用,需要新增cube模型,并行提供支持,造成存储重复;
3)由于目前使用的ApacheKylinv3.1.2是使用HBase作为后端存储,rowkey顺序设计以及分区键的选择会严重的影响查询性能,对开发不友好。
多点作为一站式全渠道数字零售解决方案服务商,能够完全满足客户不同的接入部署需求。多点大数据产品系统的接入可以大致分为SaaS化接入、私有云以及本地化部署。针对私有云、本地化部署的客户,OLAP引擎易部署、易维护、极简的架构尤其重要,像HBase、ImpalaonKudu、ApacheKylin等强依赖Hadoop生态的OLAP引擎,会增加部署的复杂性;ClickHouse集群不能自动感知集群拓扑变化,也不能自动balance数据,会增加缩容、扩容等的维护成本。
多点大数据部门从2021年年初开始,在调研市面上常用的存储引擎时发现了StarRocks。StarRocks架构设计融合了MPP数据库,以及分布式系统的设计思想,具备架构精简,支持全面向量化引擎、智能查询优化、高效更新、智能物化视图、标准SQL、流批一体、高可用易扩展等特性,天然的解决了上述的问题。
原有系统的多维分析,高并发查询,预计算,实时分析,Adhoc查询等场景下使用了多套系统,基本上能够正常的使用一套StarRocks解决。多点大数据平台、产品逐步形成以StarRocks为主,其他OLAP引擎为辅的存储架构,解决维护多套引擎的技术成本问题。
StarRocks支持BroadcastJoin、ColocateJoin等分布式Join的特性,可以在查询性能可接受的范围内,使用星型、星座模型替代“大宽表”模型,节约提前关联的开发成本,同时针对事实表中历史数据变更,要重新“跑数”的场景,可以只重跑(OverWrite)部分表的数据,提升整体的“跑数”效率。
StarRocks支持明细、聚合、更新模型,可以基于StarRocks自带预聚合的特性,优化掉现有Lambda架构的中的预聚合部分。
针对已在线上运行的模型,如果有需求上的变更,比如增加、删除、变更字段,能够正常的使用StarRocks简单SQL命令动态地修改表的定义,在表结构变更的过程中,线上的服务不受任何的影响。
在实际的业务场景中,通常存在两种场景并存的分析需求:对固定维度的聚合分析和对原始明细数据的查询。在这种情况下,StarRocks支持对原表构建物化视图,数据更新的时候,物化视图跟随原表一起进行更新,保证数据的一致性。当用户查询时,并不感知物化视图的存在,不必显式的指定物化视图的名称,查询优化器能够准确的通过查询条件自动判断是不是能够路由到相应的物化视图上。
在现有的数据T+1更新的汇总业务场景中,选取了多点报表业务中的“单品销售分析”场景来测试,单表单天数据亿级别,上百个维度和分析指标,属于典型的基于“大宽表”的Adhoc查询场景。在相同情况(机器配置、数据量、SQL)下进行ClickHouse对比StarRocks的性能测试:
从查询响应时长来看,单表的聚合查询,ClickHouse与StarRocks的查询响应时长相差不多。
在现有的数据T+1更新多表关联的汇总分析业务场景中,选取了现在多点报表业务中的“门店销售分析”场景来测试,事实表单天数据亿级别,多个维表数据量在十万级别,属于典型的高维分析场景。在相同情况(机器配置、数据量、SQL)下进行ClickHouse对比StarRocks的性能测试:
从查询响应时长来看,多表关联聚合查询,StarRocks的性能要优于ClickHouse。
在现有的数据准实时更新(边写边读)的汇总查询业务场景中,选取了“实时销售分析”场景来测试,订单数据实时更新,单天数据量亿级别。属于典型的“实时更新,实时查询”场景。在相同情况(机器配置、数据量、SQL)下进行ImpalaonKudu对比StarRocks的性能测试:
从查询响应时长来看,在边读边写的情况下,聚合查询的SQL,StarRocks的性能要优于ImpalaonKudu。
多点目前已经在高维业务指标报表、Adhoc分析、实时全链路监控等场景中引入了StarRocks,在使用中总结出以下经验:
由于StarRocks极简的架构设计,易于运维部署。我们根据一定的规则,搭建了多套集群,避免业务之间的相互影响。
例如数据是T+1更新,且单表数据量在百亿级别以上的场景(例如高维业务指标报表、Adhoc分析),我们构建了离线分析集群。通过提高StarRocks的查询并发(parallel_fragment_exec_instance_num)、单节点内存限制(exec_mem_limit)等对复杂查询友好的参数,提高集群的查询性能;
多点客户的接入方法不一样,且各种SLA要求也不同,会按照不同的需求搭建不同的StarRocks集群,尽量满足多种客户需求。
针对在线服务、系统,为了更好的提高系统整体的查询性能,可以从不同的维度进行优化:
如果需要对原始的数据(例如订单流水,原始操作记录等)来做多元化的分析,可以再一次进行选择明细模型;
如果业务方进行的查询为汇总类查询,比如SUM、COUNT、MAX等类型的查询,可以再一次进行选择聚合模型,提前进行预聚合,查询的时候直接获取结果;
如果数据需要频繁的进行状态更新(比如订单的状态变更),可以再一次进行选择更新模型。
StarRocks可以对表进行分区和分桶,分区在逻辑上把表划分成了多个子表,可根据时间进行分区;分桶可根据不同的策略将数据划分为不同的tablet,分布在不同的BE节点上。按照目前多点大数据集群的机器配置(64C+256G+12TBSSD),通常将一个tablet保持在200MB~1GB的大小,会有比较好的性能。
为了提高查询的性能,可以对StarRocks的表结构额外构建索引。稀疏索引:可以将查询中常见的过滤字段放在schema的前面,区分度越大,频次越高的查询字段越往前放;同时对区分度比较大的列构建bloomfilter;对区分度不大的列构建BitmapIndex。
针对实际查询场景中经常用到的查询SQL,可以对原始表构建物化视图,其本质为原始表(basetable)的一个物化索引,通过物化视图提前进行索引排序、指标预计算,查询的时候自动路由到物化视图进行查询。
在交易场景中进行会计算交易次数,使用常规的方式(COUNTDISTRINCTorder_id)去重,其缺点是需要消耗极大的计算和存储资源,对大规模数据集和查询延迟敏感的去重场景支持不够友好。通过定义BITMAP的数据类型,能够大大减少传统COUNTDISTINCT去重的执行需要的内存空间、执行时长;而对于像流量统计场景中针对UV的计算,在允许有部分统计偏差的前提下,可以定义HyperLogLog的数据类型,提高去重效率。
当大表与小表进行Join的时候,能够正常的使用BroadcastJoin(StarRocks针对小表的默认Join方式),小表向大表广播的方式来进行Join。该方式能用于事实表与维度表进行关联查询;
当大表与大表进行Join的时候,为了加速查询,相关表能够使用共同的分桶列(colocate_with)进行分桶。当分桶列相同,相关表进行Join操作时,可以直接在本地进行Join,再将结果数据来进行合并,避免数据在中间计算的时候就在集群中的传输。
当机器资源比较充裕时,可以将增加执行并行度(parallel_fragment_exec_instance_num),让更多的执行实例同时处理一组数据扫描,从而提升查询效率。但是并行度设置为较大的数值会消耗更多的机器资源,如CPU、内存、磁盘IO,影响整体的QPS。应该要依据实际上的查询场景来设置并行度,一般建议占用机器核数的50%。
针对复杂Ad-hoc场景,可以开启StarRocks的基于成本(Cost-basedOptimizer,CBO)的查询规划器,在众多查询计划空间中快速找到最优计划,提高查询优化器。
为了与目前多点的大数据平台做打通,对StartRocks进行了一些集成封装。
通过封装StarRocks的BrokerLoad以及StreamLoad接口,与多点的大数据平台打通,实现通过配置的方式将数据从Hive批量同步到StarRocks,或者订阅MQ将实时数据同步到StarRocks。
通过集成Prometheus与Grafana,与监控平台打通。对多个StarRocks集群的运作情况进行监控,当集群的某些指标超过一定阈值的时候进行报警。
多点从2021年上半年开始调研引入StarRocks,当前已有四个集群在稳定运行提供线上服务,逐步替代了Impala、ImpalaonKudu、ApacheKylin等存储引擎,实现了存储引擎的收敛,简化了实时数据处理链路,同时也能保障较高的查询并发以及较低的响应延迟要求。目前公司也在慢慢的变多的业务中尝试使用StarRocks。
在引擎引入以及切换的过程中,得到了StarRocks社区的全力支持。后续公司在有余力的情况下会参与StarRocks的社区共建,共同打造性能强悍的国产新一代MPP数据库。(作者:任伟,多点生活大数据部门资深研发工程师)
(免责声明:此文内容为本网站刊发或转载企业宣传资讯,仅代表作者本人观点,与本网无关。仅供读者参考,并请自己检查相关内容。)
随着网络站点平台的加快速度进行发展,许多三线以下城市的小镇青年在短视频等特定场域逐渐“崭露头角”。
山西启动新一轮国资国企改革一年多来,省属国有企业运行持续向好,前三季度实现营业收入、总利润双双上扬。