继续浏览精彩内容
慕课网APP
程序员的梦工厂
打开
继续
感谢您的支持,我会继续努力的
赞赏金额会直接到老师账户
将二维码发送给自己后长按识别
微信支付
支付宝支付

Spark实现本地开发

青春有我
关注TA
已关注
手记 1239
粉丝 205
获赞 1008

Spark实现本地开发

代码如下

package sparksqlimport org.apache.spark.rdd.RDDimport org.apache.spark.{SparkConf, SparkContext}import org.apache.spark.sql.SparkSession/**
  * Created by IBM on 2017/4/15.
  */object SparkSqlLearn extends App{

  val conf = new SparkConf().setMaster("spark://192.168.137.10:7077").setAppName("SparkSql")
    .setJars(List("D:\\java\\idea\\SparkLearn\\out\\artifacts\\SparkLearn_jar\\SparkLearn.jar"))  //val conf = new SparkConf().setMaster("local").setAppName("SparkSql")
  val sc = new SparkContext(conf)
  val data = Array("app app","asd app","demo llp","demo")
  val re :RDD[(String,Int)]= sc.parallelize(data).flatMap(str => str.split(" ")).map(str => (str,1)).reduceByKey({case (x,y) => x + y})
  val re_array = re.collect()  for((key,value) <- re_array){
    println(key + " value is " + value)
  }


  println(re.count())
  println("hello")
}

上面第一个要注意的就是setMaster("spark://192.168.137.10:7077")设置远程服务器
另外就是.setJars(List("D:\java\idea\SparkLearn\out\artifacts\SparkLearn_jar\SparkLearn.jar"))告诉Spark 集群我们要提交的作业的代码在哪里,也就是我们包含我们程序的Jar包的路径,记住路径中千万别包含中文。

配置打包:

webp

Paste_Image.png

记得一定要勾选Include in project build

然后执行build,生成Jar包,最终生成的Jar如下:

webp

Paste_Image.png

然后执行代码,输出结果如下:

webp

Paste_Image.png



作者:kason_zhang
链接:https://www.jianshu.com/p/b4b7b287c82d


打开App,阅读手记
0人推荐
发表评论
随时随地看视频慕课网APP