spark load的时候会把所有 hbase表加载到内存吗?

spark load的时候会把所有 hbase表加载到内存吗


翻阅古今
浏览 1007回答 1
1回答

眼眸繁星

不是。Spark支持Hadoop所支持的所有文件类型和文件存放位置。Spark的两种常见的数据读取方式(存放到RDD中):调用parallelize函数直接从集合中获取数据,并存入RDD中
打开App,查看更多内容
随时随地看视频慕课网APP