手记

史上最快! 10小时大数据入门实战(九)- 前沿技术拓展Spark,Flink,Beam


spark







Spark 开发语言及运行模式介绍


Scala安装

下载 Scala


配置到系统环境变量


配置成功

Spark环境搭建及 wordCount 案例实现

下载 spark


解压编译


spark-shell可执行程序


如何提交应用程序



开启2个即可


./spark-shell --master local[2]


读取输出文件内容




3行数据


按空格拆分


为每个单词赋1,表出现频率

a.map(word => (word,1))


统计


以上操作其实通过一条方法链即可完成!!!


sc.textFile("file:///Volumes/doc/data/hello.txt").flatMap(line => line.split(" ")).map(word => (word,1)).reduceByKey(_+_).collect


GUI 管理界面

访问该地址即可


http://localhost:4040

Flink 概述

使用 Flink 完成 wordcount 统计

Flink 环境部署

下载


下载镜像到本地


解压


查看官网指南



启动本地的一个 flink



浏览器访问:http://localhost:8081/


使用方法


Beam 概述

将 wordCount的 Beam 程序以多种不同 Runner运行

Java 版本快速入门指南




maven 命令执行成功


运行命令



生成文件


查询结果



作者:芥末无疆sss
链接:https://www.jianshu.com/p/4d0341a4d7d7
來源:简书
简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。


0人推荐
随时随地看视频
慕课网APP