• 0

  • 543

  • 收藏

Spark之报错java.lang.StackOverflowError(栈溢出) 解决方案

猿人不正经

不想写代码

1年前

前面在运行Spark项目的时候,突然就报了个错:java.lang.StackOverflowError,以前也没出现过这种情况,原来是栈溢出,内存不够导致的。
在这里插入图片描述

需要在spark的配置文件中添加新的内存信息。

vi /opt/soft/spark234/conf

cp spark-defaults.conf.template  spark-defaults.conf 
vi spark-defaults.conf

//添加以下配置信息

spark.driver.extraJavaOptions="-Xss30M"

这样就不会再报栈溢出的错误了!

免责声明:文章版权归原作者所有,其内容与观点不代表Unitimes立场,亦不构成任何投资意见或建议。

543

相关文章推荐

未登录头像

暂无评论