如何在Apache Spark 2.0中使用SparkSession?

如何在Apache Spark 2.0中使用SparkSession


翻过高山走不出你
浏览 725回答 1
1回答

慕桂英546537

在Spark的早期版本,sparkContext是进入Spark的切入点。我们都知道RDD是Spark中重要的API,然而它的创建和操作得使用sparkContext提供的API;对于RDD之外的其他东西,我们需要使用其他的Context。比如对于流处理来说,我们得使用StreamingContext;对于SQL得使用sqlContext;而对于hive得使用HiveContext。
打开App,查看更多内容
随时随地看视频慕课网APP