Spark 教程
Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。它建立在 Hadoop MapReduce 之上,并扩展了MapReduce模型,以便有效地使用更多类型的计算,其中包括交互式查询和流处理。
本教程是一个简要的 Apache Spark 教程,主要介绍 Spark Core 编程的基础知识。
1. 适合人群
本教程为有志于使用 Spark Framework 学习大数据分析基础,并成为 Spark 开发人员的专业人员准备。
此外,本教程对分析专业人员和ETL开发人员也很有用。
2. 预备知识
在开始本教程之前,我们假设您已经接触过 Scala编程,数据库概念 和任何 Linux操作系统。
3. Spark教程内容导航
Spark教程 | Spark简介 | Spark RDD | Spark安装 | Spark核心编程 |
Spark部署 | Spark高级编程 |
Hadoop 框架基于简单的编程模型(MapReduce),并且具有可扩展、灵活、容错且经济的特点,所以使用 Hadoop 分析数据集的计算解决方案在各个行业应用广泛。在这里,我们主要关注的是在查询之间的等待时间和运行程序 ...