繁星coding
Hadoop 的NameNode 知道集群的计算资源分布,数据存储分布.在分布任务的时候,需要对数据进行切分,然后进行计算. 这个时候分配就需要考虑数据的存储位置.Hadoop会尽量将计算分布到数据存储的节点上.如果存储的节点没用资源,比如CPU完全被占用.那会尽量将计算分布到数据存贮节点相同机架上的节点进行计算.最后如果还是没办法做到,那就只能随机的选取一个节点了.当然是所有的Spring jar也会传递上去,然后下载下来. 要不执行MR的JVM到哪去Load需要的class文件.根据经验,通常我都是直接打成一个大包,这样就会方便很多. 这个Jar包最好会上传到 mapred.jar 指定的地址(下面是一个例子), Job完了会删除Jar文件. hdfs://h03:8020/user/root/.staging/job_201408140358_0030/job.jar那些维护对象的关联关系的配置文件肯定也是要传上去的,并且读取文件不能使用绝对路径,寻找路径要依赖于Classpath. 如果你自己定义了一些配置文件,也是同样的道理. 楼主准备结贴吗?