TeRiTeRi

  1. 首页
  2. 大数据
  3. Spark
  4. 正文

Spark关于内存大小过低报错解决

2020年6月5日 1385点热度 1人点赞 0条评论
py4j.protocol.Py4JJavaError: An error occurred while calling None.org.apache.spark.api.java.JavaSparkContext.
: java.lang.IllegalArgumentException: Required executor memory (1024), overhead (384 MB), and PySpark memory (0 MB) is above the max threshold (1024 MB) of this cluster! Please check the values of 'yarn.scheduler.maximum-allocation-mb' and/or 'yarn.nodemanager.resource.memory-mb'.

在修改yarn.scheduler.maximum-allocation-mb和yarn.nodemanager.resource.memory-mb至更大内存

当然也可以在满足需求前提下通过--executor-memory指定更小内存

标签: Spark
最后更新:2020年6月5日

kamisamak

这个人很懒,什么都没留下

点赞
< 上一篇
下一篇 >

文章评论

razz evil exclaim smile redface biggrin eek confused idea lol mad twisted rolleyes wink cool arrow neutral cry mrgreen drooling persevering
取消回复

COPYRIGHT © 2023 TeRiTeRi. ALL RIGHTS RESERVED.

Theme Kratos Made By Seaton Jiang