猿问
回到首页
个人中心
反馈问题
注册登录
下载APP
首页
课程
实战
体系课
手记
专栏
慕课教程
spark load的时候会把所有 hbase表加载到内存吗?
spark load的时候会把所有 hbase表加载到内存吗
翻阅古今
浏览 1057
回答 1
1回答
眼眸繁星
不是。Spark支持Hadoop所支持的所有文件类型和文件存放位置。Spark的两种常见的数据读取方式(存放到RDD中):调用parallelize函数直接从集合中获取数据,并存入RDD中
0
0
0
打开App,查看更多内容
随时随地看视频
慕课网APP
相关分类
Hbase
本地如何连接hbase数据库?
1 回答
继续浏览精彩内容
慕课网APP
程序员的梦工厂
打开
继续