Kyligence AI 服务 - 让大模型完成准确、可靠的数值计算和回答! 立即了解更多
AI 数智助理
Kyligence Zen Kyligence Zen
Kyligence Enterprise Kyligence Enterprise
Kyligence Turbo Kyligence Turbo
指标平台解决方案
OLAP 解决方案
行业解决方案
客户总览
金融
零售
制造
医药
其他
云平台
BI
寻求合作
资源
Kyligence Enterprise
Kyligence Zen
培训
Apache Kylin
Byzer
Gluten
博客
关于
市场活动
马蜂窝大数据平台自2017年下半年引入Apache Kylin以来,极大的提升了数据分析师对于数据探索的效率。因为使用了Apache Kylin,数据分析师可以直接查询大数据、无需排队、亚秒级响应,整体开发效率提高了10倍以上。
为什么Apache Kylin是分析师的标配技能
说到Apache Kylin(以下简称Kylin),对于做大数据开发,尤其是数据仓库开发的同学,即使没用过,至少一定或多或少听过,但对于数据分析师而言,可能不一定十分熟悉,在马蜂窝,利用Kylin,自己动手搭建所负责业务的数据仓库,已经成为数据分析师日常工作的一部分,是分析师的标配技能。
传统的分层数据团队组织架构
传统的根据数据流进行分层的数据团队组织架构中,数据分析团队大多是作为数据平台的使用者,通过各种数据后台,提取数据进行分析工作,这更多是沿用了大数据技术兴起前的组织架构。
从业务角度看:随着业务复杂性及业务发展速度越来越快,尤其是马蜂窝的业务从最初的社区、到攻略、再到近两年逐渐发力的酒店和电商平台等商业化业务线,涉及用户旅行的行前、行中、行后的所有环节,做整个旅游行业的闭环。马蜂窝内部更像是一个集团公司,各个团队间的业务情况、数据需求及发展阶段有很大不同,结合自身业务的复杂性,传统的按部就班,层层堆叠的组织结构和做事方式,已经不足以适应当下的业务发展要求。
从数据分析角度来看,由于组织结构的分层,也往往容易出现踢皮球,数据项目周期拉长,甚至因层层传递导致的理解偏差,所带来的潜在问题等。
从技术角度看:随着Kylin等相关大数据技术的日趋成熟,各公司数据架构大同小异,重心已从从基本架构和功能实现,逐渐变为如何充分吸收各种大数据相关技术,如何充分发挥技术与数据的价值。
平台共建的团队组织结构&职责分工(数仓类)
通过数据平台产品化,赋能给数据分析师为代表的非数据开发小伙伴,共同进行数据平台建设。
作为研发为主的数据平台团队,由封闭的数据流的开发者,转为开放的数据平台产品的设计与实现者,充分将数据流各环节产品化,将环节中的的数据与技术能力通过数据产品开放出来,允许分析师等数据使用者加入进来,开放共建平台。
作为对接数据与业务的主力军,数据分析师从一个最上层的数据使用者,转变为数据全生命周期的管理者和建设者,能够对数据做到端到端的把控,一头控制数据源头,一头控制数据需求,中间通过数据平台各个产品自助完成数据流,职责覆盖数据埋点定义、清洗规则设立,数据仓库设计与实现,离线分析、看板配置,API输出、推动数据项目落地等。
Kylin作为一个成熟的OLAP引擎,被引入到数据平台的产品建设中,通过简单的二次开发与集成,使得数据仓库的建设能力得以开放出来,大大降低了数据仓库的建设门槛,使得数据分析师能够很好的在其上进行数据仓库的定义与构建,带来了秒级的查询响应速度,大大提升了分析师日常数据查询效率,及相关数据在业务场景中的落地。
Kylin在马蜂窝分析师团队的日常
以马蜂窝客服服务质量统计需求为例,业务部门希望能够从每天即兴跑SQL这种临时查询的方式,升级为日常可使用的后台。后台中主要统计指标为:从店铺维度,管家维度,商品维度和目的地维度分别统计销售业绩和服务质量。销售绩和服务质量具体需求如下图:
销售业绩维度统计指标
服务质量统计指标
在Kylin没有成为数据分析师标配之前,这样的一个后台需要前后端开发/数据分析师/数据库工程师和数据开发工程师协作,大约需耗时1个月,还容易因为开发对业务不理解容易导致指标统计出问题。现在在马蜂窝,只需要分析师和需求方理清需求,确定好统计主题,各主题下分别统计哪些维度,各个维度下又有哪些度量,以及度量的统计粒度和统计口径,就可以依托数据产品,独立完成统计后台搭建,耗时约一周,整体开发效率提升10倍以上,具体工作流程如下图。
数据分析师在理清需求后,从三个方面对基础数据进行有效性验证:
一是依据日志设计文档逐一校对日志是否按照指定的要求与逻辑上报;
二是抽样对基础数据做描述性统计,包括各个字段的均值/中位数/四分位数/极值/缺省值个数进行统计,做到在统计层面上对数据心中有数;
三是对关键节点数据和开发测试一起,进行逻辑校对,制作数据质量看板,并针对关键数据,由测试团队编写自动化测试用例进行数据校验,双重保证数据质量,尽可能做到数据在产生的时候不出问题,出了问题,也能在第一时间感知并修复。
分析师对数据的有效性验证完后,采用HIVE 视图的方式,依据统计逻辑对数据进行清洗和整理。在本例中,需要将IM会话信息,产品基础信息,客服服务时间信息,产品订单信息分别按照对应的主题,创建事实表和维度表。有了事实表和维度表后,可以据此快速用Kylin搭建CUBE。
在使用Kylin的时候有三个容易出现的问题:
一是分析师对数据仓库的星型模型,雪花模型,或者星系模型等理解不够,很容易抽离不出来维度表,做出来的是一张业务大宽表,据此创建的CUBE膨胀率较高,只是利用了Kylin的预计算能力,快速出统计结果;
二是分析师很难平衡计算时间和存储空间的关系,往往会根据业务方的需求,过分强调响应速度,把一些不太容易用到的维度也放在CUBE里,导致CUBE数量多,膨胀率高,占用大量计算和存储资源;
三是分析师对Kylin底层算法不理解,优化CUBE能力有限。目前采用的方案是,分析师创建CUBE后由专人负责审核和优化。
分析师创建完CUBE后,在MDW(注:马蜂窝统计指标库)中用SQL创建指标并定义维度。MDW不存储由CUBE作为数据源的数据,只是保留了计算指标的SQL(计算逻辑),并在需要的时候去Kylin中实时获取数据。
MDW有标准的API接口,可以无缝接入马蜂窝的数据看板系统。分析师利用数据看板系统,将MDW指标按照主题/维度等组合成特定的看板组,并配置好看板和看板相互之间的跳转关系,看板内部依托MDW内对同一指标不同维度的管理实现下钻和上卷。此时,马蜂窝客服服务质量统计后台就基本搭建完成(如下图)。
马蜂窝客服服务质量统计
Kylin集成到数据平台的经验
马蜂窝OLAP平台(MQL)
如上图所示,数据分析师日常工作中大部分的即兴查询是基于MQL(我们的OLAP平台)来探索数据,MQL内置支持Presto,Hive,Kylin,Phoenix等不同SQL引擎。
随着业务发展,数据分析师提交的Presto SQL任务,往往受限于Presto集群的并发性及一些大资源开销的SQL影响,我们通过引入分集群队列的排队调度,尽可能保证分析师的SQL执行成功率,但却增加了等待的时间。
我们每天有160+个用户在使用MQL,每天约2k+次SQL查询。在上图的任务状态中,我们可以看到随着Presto SQL的提交,分析师们的数据探索时间出现线性式的增长,他们需要等待半小时,甚至一小时的时间才能执行他们的SQL任务。
马蜂窝大数据平台自2017年下半年引入Kylin以来,其亚秒级的响应速度,极大的提升了数据分析师对于数据的探索的效率。现在数据分析师在MQL进行提交Kylin SQL后,无需排队,亚秒级响应,相比于之前的Presto SQL任务,Kylin给分析师们减少了几十倍,甚至几百倍的等待时间,给数据分析师的工作带来了很大的效率。
当前在马蜂窝Kylin平台,我们有80+个cube在Kylin上运转,90%的cube在5s内响应,每天约5w+次Kylin调用。我们的cube已经覆盖了马蜂窝所有的业务线,如电商,酒店,搜索,推送,用户增长等等业务线。
下面将分成3个部分来讲下Kylin在马蜂窝的实战。
1.Kylin在马蜂窝数据平台的应用
Kylin在马蜂窝数据平台的应用
如上图所示,我们规范了数据分析师数据探索的统一入口。MQL作为马蜂窝的OLAP平台,所有数据分析师通过MQL提交SQL之后,系统根据分析师所选的引擎来将SQL分发到不同的Presto平台和Kylin平台。
除此之外,系统根据SQL解析器去获取分析师SQL里的字段列和条件列,以便后续我们能有针对性的对Kylin cube进行优化。MQL-T-API 是对外输出的数据获取API,分析师通过MQL Template 进行模板创建后,将模板链接分享给其他工程师,工程师通过程序调用能在极短的时间内,无缝的接入到各个数据报表后台及业务系统(例如定向推送)当中。
在图中所示,我们有个探针模块,利用探针来去跟踪并评估分析师所提交的SQL,按照规范,我们会生成探针模块报表,输送给分析师,来让他们把Presto SQL渐渐的转化成Kylin Cube。这样一来,通过探针模块,我们也能不断去发现并挖掘Kylin Cube的增长点,同时提升分析师的工作效率。
2.Kylin在马蜂窝数据平台调度流程
Kylin在马蜂窝数据平台的调度流程
如上图所示,在数据仓库中,我们按不同主题建立分层,每一层都会有不同的数据表,不同数据表中会有依赖关系。在马蜂窝数据平台,引入AirFlow完成基于DAG的数据血缘依赖的调度系统。
在Kylin平台,确保cube的就绪时间,正确的build数据并触发下游指标平台的计算,是非常关键的一步。
由于Kylin数据源都来自Hive仓库,而表既有物理表和视图,我们会按照Kylin Project分项目下去加载各自的数据表,通过解析器去获取表视图所依赖的物理表,然后在AirFlow调度平台去检测所有物理表或视图的状态,都准备就绪后,才会触发Kylin Cube的构建。
在整个数据血缘平台中,我们也需要去监控各个表的正常状态,通过系统从而能自动的二次构建Kylin Cube,以确保数据正确统计与使用。
3.Kylin在马蜂窝数据平台上线的标准流程
Kylin Cube在马蜂窝数据平台上线流程
如上图所示,这是新cube在上线之前的一个标准流程。随着马蜂窝业务的不断发展,我们数据分析师团队的阵容越来越大。需要制定一套标准流程,来确保线上的cube足够优秀和健壮。当前我们拆分了两套集群,一个测试集群和生产集群。
数据分析师在测试集群上按照需求进行cube设计之后,我们会对新的cube按照标准cube设计法则进行评审,在判断cube足够好之后,我们只会迁移mode和cube元数据到生产集群,并加入调度系统每天正常build。在生产集群,我们也会对每一个cube 查询进行二次观察,按照其查询条件规则来对cube进行二次优化。
另外,我们也不断的汲取行业经验,并按照自己实战的经验,来规范并制定一套cube设计的基本法则,并把法则输送给每一个数据分析师,使其成为一个标准的cube管理者。
结语
Kylin在马蜂窝的正式使用不到一年的时间,而作为数据分析师的标配技能,也是在使用过程中逐步积累总结经验形成的,期间需要数据分析团队和平台研发团队大量的沟通协作,优化平台产品与工作流程,让更多的数据分析师能够驾驭Kylin这个强大的工具,服务好更多的业务场景,提升马蜂窝各个岗位的小伙伴数据使用的效率。
我们会继续关注Kylin社区的发展,也希望更多的人能了解并参与进来,早点驾驭和感受这只强大神兽的力量。
作者简介
韩鑫:马蜂窝大数据团队负责人,从理论物理跨界到技术研发,现在当半个产品经理
邵黎明:马蜂窝数据分析团队负责人,从车间主任到情报分析师,人生不设限
汪木铃:马蜂窝大数据平台研发技术负责人,从应用开发到底层源码,现在痴迷于各种大数据组件
马蜂窝简介
马蜂窝从中国最大的中文在线旅行社区出发,为旅行者提供从攻略到预订的一站式解决方案。以攻略为核心,通过对海量UGC信息的大数据应用,马蜂窝提供覆盖全球6万个目的地的交通、酒店、景点、餐饮、购物、当地玩乐等全方位旅游资讯及产品预订服务,是中国领先的自由行服务平台。
马蜂窝数据团队简介
由于马蜂窝的业务涉及旅行的所有环节,各业务对数据的需求差异巨大,平台研发团队吸收引进各种最新的大数据技术,将内部的各种数据处理需求抽象,形成平台化的通用数据产品,将大数据能力充分赋予每一个分析师,降低重复性的工作,端到端掌控数据全生命周期,真正成为数据的掌控者,从传统的表哥表姐,成长为各业务的数据合伙人。
01 现象 社区小伙伴最近在为 Kylin 4 开发 Soft Affinity + Local Cache
01 背景 随着顺丰末端物流(末端物流主要分为对小哥、柜机、区域等的资源的管理和分批;对路径、排班、改派等信息
Apache Kylin 的今天 目前,Apache Kylin 的最新发布版本是 4.0.1。Apache
Kylin 入选《上海市重点领域(金融类)“十四五”紧缺人才开发目录》 数字经济已成为全球增长新动
在 Kyligence 主办的 Data & Cloud Summit 2021 行业峰会的「数字化转
近日由 Kyligence 主办的 Data & Cloud Summit 2021 行业峰会在上海成
近五年来,Kyligence 服务了金融、制造、零售、互联网等各个行业的龙头企业,我们在服务这些企业的过程中,
2021年1月14日,Kyligence 产品经理陈思捷开启了我们在 2021 年的首场线上分享,为大家介绍了
400 8658 757
工作日:10:00 - 18:00
已有账号? 点此登陆
预约演示,您将获得
完整的产品体验
从数据导入、建模到分析的全流程操作演示。
行业专家解惑
与资深行业专家的交流机会,解答您的个性化问题。
请填写真实信息,我们会在 1-2 个工作日内电话与您联系。
全行业落地场景演示
涵盖金融、零售、餐饮、医药、制造等多个行业,最贴合您的业务需求与场景。
Data + AI 应用落地咨询
与资深技术专家深入交流,助您的企业快速落地 AI 场景应用。
立即预约,您将获得
精准数据计算能力:
接入高精度数值计算大模型服务,为您的企业级AI应用提供强大支持。
个性化业务场景解决方案:
量身定制的计算模型和数据分析服务,切实贴合您的业务需求和应用场景。
Data + AI 落地应用咨询:
与资深专家深入探讨数据和 AI 如何帮助您的企业加速实现应用落地,构建更智能的数据驱动未来。
申请体验,您将获得
体验数据处理性能 2x 加速
同等规模资源、同等量级数据、同一套数据处理逻辑,处理耗时下降一半
专家支持
试用部署、生成数据、性能对比各操作环节在线支持