猿问
spark load的时候会把所有 hbase表加载到内存吗?
spark load的时候会把所有 hbase表加载到内存吗
翻阅古今
浏览 1057
回答 1
1回答
眼眸繁星
不是。Spark支持Hadoop所支持的所有文件类型和文件存放位置。Spark的两种常见的数据读取方式(存放到RDD中):调用parallelize函数直接从集合中获取数据,并存入RDD中
0
0
0
随时随地看视频
慕课网APP
相关分类
Hbase
本地如何连接hbase数据库?
1 回答
我要回答