0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看威廉希尔官方网站 视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Spark和Flink的威廉希尔官方网站 与场景进行全面分析与对比

DPVg_AI_era 来源:未知 作者:李倩 2018-08-01 09:00 次阅读

一提到大数据,多半绕不开Spark 和 Flink。Spark用一个统一的引擎支持批处理、流处理、交互式查询、机器学习等常见的数据处理场景,适应性极广,但数据流计算上表现稍弱,而Flink的出现很好地弥补了这一不足。本文对 Spark 和 Flink 的威廉希尔官方网站 与场景进行了全面分析与对比,且看下一代大数据计算引擎之争,谁主沉浮?

下一代大数据计算引擎

自从数据处理需求超过了传统数据库能有效处理的数据量之后,Hadoop 等各种基于 MapReduce 的海量数据处理系统应运而生。从 2004 年 Google 发表 MapReduce 论文开始,经过近 10 年的发展,基于 Hadoop 开源生态或者其它相应系统的海量数据处理已经成为业界的基本需求。

但是,很多机构在开发自己的数据处理系统时都会发现需要面临一系列的问题。从数据中获取价值需要的投入远远超过预期。常见的问题包括:

非常陡峭的学习曲线。刚接触这个领域的人经常会被需要学习的威廉希尔官方网站 的数量砸晕。不像经过几十年发展的数据库一个系统可以解决大部分数据处理需求,Hadoop 等大数据生态里的一个系统往往在一些数据处理场景上比较擅长,另一些场景凑合能用,还有一些场景完全无法满足需求。结果就是需要好几个系统来处理不同的场景。

(来源:https://mapr.com/developercentral/lambda-architecture/)

上图是一个典型的 lambda 架构,只是包含了批处理和流处理两种场景,就已经牵涉到至少四五种威廉希尔官方网站 了,还不算每种威廉希尔官方网站 的可替代选择。再加上实时查询、交互式分析、机器学习等场景,每个场景都有几种威廉希尔官方网站 可以选择,每个威廉希尔官方网站 涵盖的领域还有不同方式的重叠。结果就是一个业务经常需要使用四五种以上的威廉希尔官方网站 才能支持好一个完整的数据处理流程。加上调研选型,需要了解的数目还要多得多。

下图是大数据领域的全景。晕了没?

2018 大数据和 AI 全景

开发和运行效率低下。因为牵涉到多种系统,每种系统有自己的开发语言和工具,开发效率可想而知。而因为采用了多套系统,数据需要在各个系统之间传输,也造成了额外的开发和运行代价,数据的一致也难以保证。在很多机构,实际上一半以上的开发精力花在了数据在各个系统之间的传输上。

复杂的运维。多个系统,每个需要自己的运维,带来更高的运维代价的同时也提高了系统出问题的可能。

数据质量难以保证。数据出了问题难以跟踪解决。

最后,还有人的问题。在很多机构,由于系统的复杂性,各个子系统的支持和使用落实在不同部门负责。

了解了这些问题以后,对 Spark 从 2014 年左右开始迅速流行就比较容易理解了。Spark 在当时除了在某些场景比 Hadoop MapReduce 带来几十到上百倍的性能提升外,还提出了用一个统一的引擎支持批处理、流处理、交互式查询、机器学习等常见的数据处理场景。看过在一个 Notebook 里完成上述所有场景的 Spark 演示,对比之前的数据流程开发,对很多开发者来说不难做出选择。经过几年的发展,Spark 已经被视为可以完全取代 Hadoop 中的 MapReduce 引擎。

正在 Spark 如日中天高速发展的时候,2016 年左右 Flink 开始进入大众的视野并逐渐广为人知。为什么呢?原来在人们开始使用 Spark 之后,发现 Spark 虽然支持各种常见场景,但并不是每一种都同样好用。数据流的实时处理就是其中相对较弱的一环。Flink 凭借更优的流处理引擎,同时也支持各种处理场景,成为 Spark 的有力挑战者。

Spark 和 Flink 是怎么做到这些的,它们之间又有那些异同,下面我们来具体看一下。

Spark和Flink的引擎威廉希尔官方网站

这一部分主要着眼于 Spark 和 Flink 引擎的架构方面,更看重架构带来的潜力和限制。现阶段的实现成熟度和局限会在后续生态部分探讨。

数据模型和处理模型

要理解 Spark 和 Flink 的引擎特点,首先从数据模型开始。

Spark 的数据模型是弹性分布式数据集 RDD(Resilient Distributed Datasets)。 比起 MapReduce 的文件模型,RDD 是一个更抽象的模型,RDD 靠血缘(lineage) 等方式来保证可恢复性。很多时候 RDD 可以实现为分布式共享内存或者完全虚拟化(即有的中间结果 RDD 当下游处理完全在本地时可以直接优化省略掉)。这样可以省掉很多不必要的 I/O,是早期 Spark 性能优势的主要原因。

Spark 用 RDD 上的变换(算子)来描述数据处理。每个算子(如 map,filter,join)生成一个新的 RDD。所有的算子组成一个有向无环图(DAG)。Spark 比较简单地把边分为宽依赖和窄依赖。上下游数据不需要 shuffle 的即为窄依赖,可以把上下游的算子放在一个阶段(stage) 里在本地连续处理,这时上游的结果 RDD 可以 省略。下图展示了相关的基本概念。更详细的介绍在网上比较容易找到,这里就不花太多篇幅了。

Spark DAG

(来源:http://datastrophic.io/core-concepts-architecture-and-internals-of-apache-spark/)

Flink 的基本数据模型是数据流,及事件(Event)的序列。数据流作为数据的基本模型可能没有表或者数据块直观熟悉,但是可以证明是完全等效的。流可以是无边界的无限流,即一般意义上的流处理。也可以是有边界的有限流,这样就是批处理。

Flink 用数据流上的变换(算子)来描述数据处理。每个算子生成一个新的数据流。在算子,DAG,和上下游算子链接(chaining) 这些方面,和 Spark 大致等价。Flink 的节点(vertex)大致相当于 Spark 的阶段(stage),划分也会和上图的 Spark DAG 基本一样。

Flink 任务图(来源:https://ci.apache.org/projects/flink/flink-docs-release-1.5/concepts/runtime.html)

在 DAG 的执行上,Spark 和 Flink 有一个比较显著的区别。在 Flink 的流执行模式中,一个事件在一个节点处理完后的输出就可以发到下一个节点立即处理。这样执行引擎并不会引入额外的延迟。与之相应的,所有节点是需要同时运行的。而 Spark 的 micro batch 和一般的 batch 执行一样,处理完上游的 stage 得到输出之后才开始下游的 stage。

在 Flink 的流执行模式中,为了提高效率也可以把多个事件放在一起传输或者计算。但这完全是执行时的优化,可以在每个算子独立决定,也不用像 RDD 等批处理模型中一样和数据集边界绑定,可以做更加灵活的优化同时可以兼顾低延迟需求。

Flink 使用异步的 checkpoint 机制来达到任务状态的可恢复性,以保证处理的一致性,所以在处理的主流程上可以做到数据源和输出之间数据完全不用落盘,达到更高的性能和更低的延迟。

数据处理场景

除了批处理之外,Spark 还支持实时数据流处理、交互式查询和机器学习、图计算等。

(来源: https://databricks.com/spark/about)

实时数据流处理和批处理主要区别就是对低延时的要求。Spark 因为 RDD 是基于内存的,可以比较容易切成较小的块来处理。如果能对这些小块处理得足够快,就能达到低延时的效果。

交互式查询场景,如果数据能全在内存,处理得足够快的话,就可以支持交互式查询。

机器学习和图计算其实是和前几种场景不同的 RDD 算子类型。Spark 提供了库来支持常用的操作,用户或者第三方库也可以自己扩展。值得一提的是,Spark 的 RDD 模型和机器学习模型训练的迭代计算非常契合,从一开始就在有的场景带来了非常显著的性能提升。

从这些可以看出来,比起 Hadoop MapReduce, Spark 本质上就是基于内存的更快的批处理。然后用足够快的批处理来实现各种场景。

(来源:https://www.slideshare.net/ParisCarbone/state-management-in-apache-flink-consistent-stateful-distributed-stream-processing)

前面说过,在 Flink 中,如果输入数据流是有边界的,就自然达到了批处理的效果。这样流和批的区别完全是逻辑上的,和处理实现独立,用户需要实现的逻辑也完全一样,应该是更干净的一种抽象。后续会在深入对比流计算方面的时候做更深入的讨论。

Flink 也提供了库来支持机器学习、图计算等场景。从这方面来说和 Spark 没有太大区别。

一个有意思的事情是用 Flink 的底层 API 可以支持只用 Flink 集群实现一些数据驱动的分布式服务。有一些公司用 Flink 集群实现了社交网络,网络爬虫等服务。这个也体现了 Flink 作为计算引擎的通用性,并得益于 Flink 内置的灵活的状态支持。

总的来说,Spark 和 Flink 都瞄准了在一个执行引擎上同时支持大多数数据处理场景,也应该都能做到这一点。主要区别就在于因为架构本身的局限在一些场景会受到限制。比较突出的地方就是 Spark Streaming 的 micro batch 执行模式。Spark 社区应该也意识到了这一点,最近在持续执行模式(continuous processing)方面开始发力。 具体情况会在后面介绍。

有状态处理(Stateful Processing)

Flink 还有一个非常独特的地方是在引擎中引入了托管状态(managed state)。要理解托管状态,首先要从有状态处理说起。如果处理一个事件(或一条数据)的结果只跟事件本身的内容有关,称为无状态处理;反之结果还和之前处理过的事件有关,称为有状态处理。稍微复杂一点的数据处理,比如说基本的聚合,都是有状态处理。Flink 很早就认为没有好的状态支持是做不好留处理的,因此引入了 managed state 并提供了 API 接口

Flink 中的状态支持

(来源:https://www.slideshare.net/ParisCarbone/state-management-in-apache-flink-consistent-stateful-distributed-stream-processing)

一般在流处理的时候会比较关注有状态处理,但是仔细看的话批处理也是会受到影响的。比如常见的窗口聚合,如果批处理的数据时间段比窗口大,是可以不考虑状态的,用户逻辑经常会忽略这个问题。但是当批处理时间段变得比窗口小的时候,一个批的结果实际上依赖于以前处理过的批。这时,因为批处理引擎一般没有这个需求不会有很好的内置支持,维护状态就成为了用户需要解决的事情。比如窗口聚合的情况用户就要加一个中间结果表记住还没有完成的窗口的结果。这样当用户把批处理时间段变短的时候就会发现逻辑变复杂了。这是早期 Spark Streaming 用户 经常碰到的问题,直到 Structured Streaming 出来才得到缓解。

而像 Flink 这样以流处理为基本模型的引擎,因为一开始就避不开这个问题,所以引入了 managed state 来提供了一个通用的解决方案。比起用户实现的特定解决方案,不但用户开发更简单,而且能提供更好的性能。最重要的是能更好地保证处理结果的一致性。

简单来说,就是有一些內秉的数据处理逻辑,在批处理中容易被忽略或简化处理掉也能得到可用的结果,而在流处理中问题被暴露出来解决掉了。所以流计算引擎用有限流来处理批在逻辑上比较严谨,能自然达到正确性。主要做一些不同的实现来优化性能就可以了。而用更小的批来interwetten与威廉的赔率体系 流需要处理一些以前没有的问题。当计算引擎还没有通用解决方案的时候就需要用户自己解决了。类似的问题还有维表的变化(比如用户信息的更新),批处理数据的边界和迟到数据等等。

编程模型

Spark 1.6 时的 API 状态

Spark 的初衷之一就是用统一的编程模型来解决用户的各种需求,在这方面一直很下功夫。最初基于 RDD 的 API 就可以做各种类型的数据处理。后来为了简化用户开发,逐渐推出了更高层的 DataFrame(在 RDD 中加了列变成结构化数据)和 Datasets(在 DataFrame 的列上加了类型),并在 Spark 2.0 中做了整合(DataFrame = DataSet[Row])。Spark SQL 的支持也比较早就引入了。在加上各个处理类型 API 的不断改进,比如 Structured Streaming 以及和机器学习深度学习的交互,到了今天 Spark 的 API 可以说是非常好用的,也是 Spark 最强的方面之一。

Spark 2.0 API

(来源:https://databricks.com/blog/2016/07/14/a-tale-of-three-apache-spark-apis-rdds-dataframes-and-datasets.html)

Flink 的 API 也有类似的目标和发展路线。Flink 和 Spark 的核心 API 可以说是可以基本对应的。今天 Spark API 总体上更完备一下,比如说最近一两年大力投入的和机器学习深度学习的整合方面。Flink 在流处理相关的方面还是领先一些,比如对 watermark、window、trigger 的各种支持。

Flink API

(来源:https://ci.apache.org/projects/flink/flink-docs-release-1.5/concepts/programming-model.html)

小结

Spark 和 Flink 都是通用的能够支持超大规模数据处理,支持各种处理类型的计算引擎。两个系统都有很多值得探讨的方面在这里没有触及,比如 SQL 的优化,和机器学习的集成等等。这里主要是试图从最基本的架构和设计方面来比较一下两个系统。因为上层的功能在一定程度上是可以互相借鉴的,有足够的投入应该都能做好。而基本的设计改变起来会伤筋动骨,更困难一些。

Spark 和 Flink 的不同执行模型带来的最大的区别应该还是在对流计算的支持上。最开始的 Spark Streaming 对流计算想得过于简单,对复杂一点的计算用起来会有不少问题。从 Spark 2.0 开始引入的 Structured Streaming 重新整理了流计算的语义,支持按事件时间处理和端到端的一致性。虽然在功能上还有不少限制,比之前已经有了长足的进步。不过 micro batch 执行方式带来的问题还是存在,特别在规模上去以后性能问题会比较突出。最近 Spark 受一些应用场景的推动,也开始开发持续执行模式。2.3 里的实验性发布还只支持简单的 map 类操作。

Spark 持续执行模式状态

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据处理
    +关注

    关注

    0

    文章

    599

    浏览量

    28568
  • 机器学习
    +关注

    关注

    66

    文章

    8418

    浏览量

    132646
  • SPARK
    +关注

    关注

    1

    文章

    105

    浏览量

    19911

原文标题:Spark比拼Flink:下一代大数据计算引擎之争,谁主沉浮?

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    PCBA分析仪的威廉希尔官方网站 原理和应用场景

    PCBA分析仪,通常指的是多功能PCBA测试仪,是一种综合性测试设备,能够同时进行多种测试,如功能测试、ICT(在线测试)、AOI(自动光学检测)、X射线检测等。以下是对其威廉希尔官方网站 原理和应用场景
    发表于 12-04 14:31

    射频分析仪的威廉希尔官方网站 原理和应用场景

    射频分析仪是一种功能强大的电子测量仪器,在无线通信、电子测试等领域具有广泛的应用。以下是关于射频分析仪的威廉希尔官方网站 原理和应用场景的详细介绍:一、射频分析
    发表于 11-26 14:32

    导航分析仪的威廉希尔官方网站 原理和应用场景

    特定的编码规则进行解析,获取其中的位置、速度、时间等关键信息。  频谱分析:对于一些复杂的导航信号环境,导航分析仪会采用频谱分析威廉希尔官方网站 。通过将
    发表于 11-19 15:13

    移动终端测试仪的威廉希尔官方网站 原理和应用场景

    ,确保设备在导航服务中的准确性和可靠性。 应用场景移动终端测试仪的应用场景广泛,涵盖了从研发到生产、从维护到监管的多个环节: 移动维修服务:维修威廉希尔官方网站 人员可以使用便携的综测仪快速对手机进行
    发表于 11-04 16:01

    实时示波器的威廉希尔官方网站 原理和应用场景

    波形图像。在信号处理方面,示波器首先将接收到的被测信号进行放大和滤波等处理,以确保信号的准确性和稳定性。然后,通过A/D转换威廉希尔官方网站 ,将模拟信号转换为数字信号,以便进行后续的数字处理和显示。二、应用
    发表于 10-23 14:22

    参数分析仪的威廉希尔官方网站 原理和应用场景

    参数分析仪的威廉希尔官方网站 原理和应用场景因其具体类型和用途的不同而有所差异。以下是对参数分析威廉希尔官方网站 原理和应用场景
    发表于 10-17 14:42

    智能IC卡测试设备的威廉希尔官方网站 原理和应用场景

    智能IC卡测试设备的威廉希尔官方网站 原理和应用场景,可以从以下几个方面进行阐述:威廉希尔官方网站 原理智能IC卡测试设备的威廉希尔官方网站 原理主要围绕IC卡的通信和数据处理机制展
    发表于 09-26 14:27

    NFC协议分析仪的威廉希尔官方网站 原理和应用场景

    的兼容性和性能表现,确保物联网设备的稳定运行和高效通信。 安全分析:在安全领域,NFC协议分析仪可以用于进行NFC安全分析。通过模拟攻击场景
    发表于 09-25 14:45

    USB协议分析仪的威廉希尔官方网站 原理和应用场景

    USB协议分析仪的威廉希尔官方网站 原理和应用场景可以详细阐述如下:威廉希尔官方网站 原理USB协议分析仪的威廉希尔官方网站 原理主要基于
    发表于 09-24 14:29

    什么是 Flink SQL 解决不了的问题?

    覆盖不了的问题,但 SQL 的易用性又难以让人释怀。所以有些场景在使用 FLink SQL 开始就与需要额外注意,下面就介绍一种多表关联时存在部分列更新(partial Update)场景,在
    的头像 发表于 07-09 20:50 313次阅读

    spark运行的基本流程

    前言: 由于最近对spark的运行流程非常感兴趣,所以阅读了《Spark大数据处理:威廉希尔官方网站 、应用与性能优化》一书。通过这本书的学习,了解了spark的核心
    的头像 发表于 07-02 10:31 410次阅读
    <b class='flag-5'>spark</b>运行的基本流程

    Spark基于DPU的Native引擎算子卸载方案

    Spark Streaming)、机器学习(Spark MLlib)和图计算(GraphX)。Spark 使用内存加载保存数据并进行迭代计算,减少磁盘溢写,同时支持 Java、Sca
    的头像 发表于 06-28 17:12 587次阅读
    <b class='flag-5'>Spark</b>基于DPU的Native引擎算子卸载方案

    关于Spark的从0实现30s内实时监控指标计算

    前言 说起Spark,大家就会自然而然地想到Flink,而且会不自觉地将这两种主流的大数据实时处理威廉希尔官方网站 进行比较。然后最终得出结论:Flink
    的头像 发表于 06-14 15:52 453次阅读

    RDMA威廉希尔官方网站 在Apache Spark中的应用

    、电信、零售、医疗保健还是物联网,Spark的应用几乎遍及所有需要处理海量数据和复杂计算的领域。它的快速、易用和通用性,使得数据科学家和工程师能够轻松实现数据挖掘、数据分析、实时处理等任务。 然而,在Spark的灿烂光环背后,一
    的头像 发表于 03-25 18:13 1542次阅读
    RDMA<b class='flag-5'>威廉希尔官方网站
</b>在Apache <b class='flag-5'>Spark</b>中的应用

    基于DPU和HADOS-RACE加速Spark 3.x

    的查询和分析功能。 随着SSD和万兆网卡普及以及IO威廉希尔官方网站 的提升,CPU计算逐渐成为Spark 作业的瓶颈,而
    的头像 发表于 03-25 18:12 1359次阅读
    基于DPU和HADOS-RACE加速<b class='flag-5'>Spark</b> 3.x