欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 汽车 > 维修 > 31、spark-on-kubernetes中任务报错No space left on device

31、spark-on-kubernetes中任务报错No space left on device

2025/10/12 16:04:30 来源:https://blog.csdn.net/weixin_42960808/article/details/145552905  浏览:    关键词:31、spark-on-kubernetes中任务报错No space left on device

前提:我的spark版本为2.4.5, spark-operator版本为:v1beta2-1.0.0-2.4.5
spark任务在shuffle过程中会将一些中间数据放入当前executor的磁盘下。而我们的任务运行在华为云的CCI服务上(一个k8s serverless集群服务)。
这个场景下,spark.local.dir的默认目录(/var/data/spark-{UUID})是以emptydir挂载卷的方式挂载的,大小默认40g。而且当前这个operator版本还调整不了这个大小。对应一些作业来说,这个大小不够,任务就会抛出磁盘容器不足异常。
在这里插入图片描述
最终的解决办法,在spark.local.dir参数里配置多个目录,eg:spark.local.dir: ‘/data1,/data2,/data3’。这样它每个目录都会挂载一个emptydir卷,每个40g大小。不过遇到数据倾斜会导致某个目录磁盘还是不够。但是现在暂时这样了,数据倾斜情况下再处理数据倾斜吧。
在这里插入图片描述
也在考虑使用开源的RSS(remote shuffle service)服务,是否符合当前情况,投入和收益是否合理

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词