拥抱开源 DevOps引领大数据生态系统

日期: 2017-03-27 作者:Jack Vaughan翻译:乔俊婧 来源:TechTarget中国 英文

为了实施开源战略,基于大数据生态系统组件的应用程序必须加强,才能在生产中运行。 DevOps可能是其中的重要组成部分。 用户一直希望减少对供应商的依赖。但是,当了解了如今大数据生态系统的复杂环境时,他们至少在某种程度上将承担一定的责任。

新的数据工程要求对DevOps进行整体的调整,其实就是敏捷性方法的扩展,需要开发人员对创新应用在生产中的表现承担更多的责任。同时,工程师需要以更快的速度学习新的软件。 许多早期采用者不得不创建基于MapReduce的Hadoop应用程序,只能使用Spark处理引擎重新启动它们。 如今有各种开源产品用于分析,包括Hadoop SQL查询工具、机器学习和其他功能。

……

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

为了实施开源战略,基于大数据生态系统组件的应用程序必须加强,才能在生产中运行。 DevOps可能是其中的重要组成部分。 用户一直希望减少对供应商的依赖。但是,当了解了如今大数据生态系统的复杂环境时,他们至少在某种程度上将承担一定的责任。 新的数据工程要求对DevOps进行整体的调整,其实就是敏捷性方法的扩展,需要开发人员对创新应用在生产中的表现承担更多的责任。同时,工程师需要以更快的速度学习新的软件。 许多早期采用者不得不创建基于MapReduce的Hadoop应用程序,只能使用Spark处理引擎重新启动它们。 如今有各种开源产品用于分析,包括Hadoop SQL查询工具、机器学习和其他功能。包括开源数据流媒体空间,随着一系列新的实时系统不断进行批处理,这些数据流空间正在不断发展。 在流媒体中,分析工具层出不穷。先是早期的竞争者Apache Storm,接着又出现Apache Spark和Apache Flink,而且这一切都发生在短短的几年之内。 Hadoop联合创始人、Cloudera首席架构师Doug Cutting表示,这是现代数据工程的本质,今天人们必须做好试用软件组件的准备。 事实上,很难找到与多个流媒体架构合作的商店,而且其中涉及到很多在职学习。随着Spark通过最近宣布的Drizzle插件在时间流式中添加记录,就需要更广泛的学习。 数据工程师正在研究组件如何以不同的组合形式工作,这个过程是从概念验证转向生产的重要环节。最终用户和供应商都属于这个环节的一部分。

搞清楚你想要什么

回想一下,当供应商们作为唯一创新来源的日子里,用户往往处于被动地位。供应商仍然可能在大数据应用实施方面发挥很大的作用,但被动的用户就要承受更大的风险。 事实上,产品发布时间中至少有一些滞后时间与准备软件的供应商有关。开源大数据应用程序从概念验证到生产投入的艰难过程并非巧合。 随着数据商店开始对新的开源应用程序进行变革,数据工程需要大量的创新。 为了继续推进大数据工程,团队需要非常认真地追求DevOps的信条,或者称之为DataOps,尤其是要求数据工程师和IT架构师负责将创新思想运用到生产过程中。

作者

Jack Vaughan
Jack Vaughan

TechTarget新闻记者和网站编辑,主要关注数据管理领域的技术趋势和动态。

翻译

乔俊婧
乔俊婧

关注商务智能及虚拟化领域技术发展,专注网站内容策划、组稿和编辑, 负责《数据价值》电子杂志的策划和撰稿。喜欢桌游,热爱音乐,吃货一枚。

相关推荐