如何搭建数据湖架构?听听专家的意见

日期: 2015-07-07 作者:Craig Stedman翻译:杨宏玉 来源:TechTarget中国 英文

Edo Interactive在几年前遇到一个大问题:公司使用交易数据来帮助零售商和餐馆进行个性化促销,但其数据仓库没有足够时间去处理所有的信用卡和借记卡交易数据

 “我们要花费27小时来处理每日的数据量,”Edo主管基础设施和信息系统的高级副总裁Tim Garnto说道:“所以在2013年,我们放弃了现有的基于PostgreSQL的关系型数据库系统,使用了Hadoop集群作为公司的数据湖架构。”

Garnto的团队一天中需要收集5000多万条美国零售交易数据,并分发到20个节点的集群中,这些节点运行在Cloudera的Hadoop分布式机架上,使用Pentaho的数据集成工具。从银行和信用卡公司收集到的数据,会被传入设计好的预测模型中,以确定个体持卡人所需的优惠券。Edo的业务伙伴每周通过电子邮件发出优惠券,这些优惠券会在产生对应消费时生效。

每日的数据构建时间缩减到大约四个小时,Garnto表示,根据正在运行模型的复杂性,Edo的数据分析师能“在几分钟或几小时内完成他们的工作。而以前,他们可能累的要死。

但数据湖上并不总是阳光灿烂,一帆风顺的。起初,Edo只有一个员工具有Hadoop MapReduce编程框架的经验。公司联合Chicago总部和Nashville分部,对其他员工进行Hadoop技术内部培训,但后来这使得他们不得放弃了熟悉的数据查询方式。“我们花了很多时间更新这一过程。”Garnto说。

创建一个保证原始数据一致性和生成标准化分析数据集的两步程序也需要花时间去解决。目前拥有包含450亿条记录(总共255TB的数据)的集群,已成为Edo业务操作的核心,对于这个集群,Garnto需要小心管理,谨慎添加新的Hadoop生态技术。否则,对公司某个部分的调整可能会影响整个系统对其他部分的工作处理。

数据湖使实时分析成为了可能

Webtrends公司是另一家数据湖的使用者,该公司收集并处理网站、手机、物联网上的活动数据。这家位于波特兰的公司于2014年7月部署了基于Hortonworks的Hadoop集群,目前正在试用阶段,计划在2015年初完全实现。它最初只支持了一个叫Explore的产品,让企业营销人员做客户数据的专项分析。Webtrends产品架构主管PeterCrossley表示,每个季度大约有500 TB的数据添加到60个节点的集群中,现在总共有1.28 PB。

随着时间的推移,Webtrends计划使用Hadoop平台代替自有的数据网络附加存储平面文件系统。Crossley表示,使用Apache Kafka消息队列和自动化脚本处理技术,互联网点击流数据可以涌入集群和并在20至40毫秒内做好分析准备工作。因此,报表和分析过程几乎可以在瞬间开始,这比老系统快得多。Hadoop集群还支持进阶分析,且能降低25%到50%的硬件成本。

Crossley表示,采用数据湖概念需要公司内部在管理和使用Webtrends为客户收集的信息时做到“思路上的转变”。之前,该公司主要使用数据存储构建通用报表。但是,一个数据湖与其说是一个真理,不如说是真理的来源,在其之上,您可以构建多个数据集以供不同的分析用途。

Webtrends也不得不认真考虑其数据湖的架构和数据治理过程,以防止Hadoop集群变成“数据沼泽”,正如Crossley所说。刚刚进入系统的原始数据结构十分松散,但是应该有非常严格的规则来规定其应该是什么样子。此外,他的团队已经将集群分成三个不同的层次:一个用于原始数据,第二个用于日增量数据集,另一个用于存储需要被纳入的第三方信息。基于不同的数据集细节,每一层次都具有自己的数据分类和治理策略。

对你的数据保持控制

Razorsight公司CTO Suren Nathan还指出,建立和管理一个Hadoop 数据湖需要具备良好的纪律性和组织性。否则系统很快就会变成一个失控的垃圾场,就像一个由很多文件组成的SharePoint,没有人知道如何找到这些文件。

Razorsight为电信企业提供了一组基于云的分析服务,2014年第二季度开始使用运行在Hadoop集群上MapR技术。客户组、操作和网络数据通过自有工具被输入到系统中,通过Spark引擎的处理后,由Razorsight数据科学家进行分析;集群具有五个生产节点和120 TB的存储容量。

和Webtrends类似的,Razorsight数据湖被分割成三个分区。在Razorsight的案例中,一个数据湖能够存储不到六个月的数据,另一个包含旧的但仍然活跃的数据,第三则存储不再使用的但需要保留的信息。目前,在这两个活动区域中有超过20 TB的数据。为了保证系统工作平稳,Razorsight招聘了具备分布式系统的数据治理和开发经验的新员工,同时也培训现有员工使用Hadoop,Spark和相关技术的能力。 

目前是迁移到新平台的阶段。每TB大约花费2000美元,Hadoop集群成本仅仅是公司之前所部署的IBMNetezza数据仓库系统的十分之一。但Nathan表示,Razorsight首先建立专门用于数据存储的集群,然后再进入处理和准备阶段。因为Netezza硬件和IBM SPSS分析软件之间存在的紧密联系,分析建模和数据可视化仍会存在于旧的系统中。建模将保持现状,但Nathan预计到今年年底,将可视化层和Razorsight分析结果数据转移到数据湖架构中。

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

翻译

杨宏玉
杨宏玉

TechTarget特邀编辑。北京邮电大学计算机科学与技术专业硕士。熟悉软件开发流程,对系统管理,网络配置,数据库应用等方面有深入的理解和实践经验。现就职于IBM(中国)投资有限公司,从事IBM服务器相关软件的开发工作。业余时间喜欢游泳登山,爱健身,喜欢结交朋友。

相关推荐