欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 文旅 > 旅游 > spark on hive 参数

spark on hive 参数

2025/5/15 2:13:25 来源:https://blog.csdn.net/sunxunyong/article/details/144982046  浏览:    关键词:spark on hive 参数

set hive.execution.engine=spark;
set spark.app.name=test9999;
set spark.executor.cores=5;
set spark.executor.memory=20G;
set spark.executor.instances=5;
set spark.driver.memory=5G;
set spark.memory.fraction=0.9;
–定义了 Spark 作业中每个 stage 的默认 task 数量。 Spark 官方建议的设置原则是,将spark.default.parallelism 设置为 num-executors * executor-cores 的 2 到 3 倍。
spark.default.parallelism=50;
set hive.merge.sparkfiles=true;
–是否自动转换为mapjoin
set hive.auto.convert.join=true;
–小表的最大文件大小,默认为25000000,即25M
set hive.mapjoin.smalltable.filesize=25000000;
–是否将多个mapjoin合并为一个
set hive.auto.convert.join.noconditionaltask=true;
–多个mapjoin转换为1个时,所有小表的文件大小总和的最大值。
set hive.auto.convert.join.noconditionaltask.size=25000000;

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词