如何增加可用于Apache Spark执行器节点的内存?
我有一个2 GB的文件,适合加载到Apache Spark。我目前在1台机器上运行apache spark,因此驱动程序和执行程序在同一台机器上。本机具有8 GB的内存。
设置要缓存在内存中的文件后,当我尝试计算文件的行数时,出现以下错误:
2014-10-25 22:25:12 WARN CacheManager:71 - Not enough space to cache partition rdd_1_1 in memory! Free memory is 278099801 bytes.
我看了看文档,这里并设置spark.executor.memory到4g在$SPARK_HOME/conf/spark-defaults.conf
用户界面显示此变量是在Spark环境中设置的。你可以在这里找到截图
但是,当我转到“ 执行器”选项卡时,单个执行器的内存限制仍然设置为265.4 MB。我也仍然遇到相同的错误。
我尝试了这里提到的各种方法,但是仍然出现错误,并且不清楚应该在哪里更改设置。
我正在从spark-shell交互式运行我的代码
慕森王
忽然笑