欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 汽车 > 维修 > spark-standalone

spark-standalone

2025/5/15 0:58:29 来源:https://blog.csdn.net/asdfghjj_/article/details/147915379  浏览:    关键词:spark-standalone

一、定义:Standalone 模式是一种独立的集群部署模式,自带完整服务,可单独部署到一个集群中,无需依赖任何其他资源管理系统。

二、配置步骤

1.和前面一样拉到hadoop101的/opt/module这个目录里面。

2.压缩

3.重命名为spark-standalone

4.配置环境变量

5.同步环境变量

6.进入/opt/module/spark-standalone/conf这个目录,修改workers.template文件,将后缀名去掉,然后点进去,添加下列内容

7.修改spark-env.sh.template文件,将后缀名去掉,然后点进去,添加下列内容

8.同步设置完毕的Spark目录到其他节点。使用我们之前封装的命令:

xsync /opt/module/spark-standalone/

9.启动SPARK集群。进入到hadoop100机器,切换目录到/opt/module/spark-standalone/sbin下,运行命令 ./start-all.sh。(注意,这里不要省略./)

10.验收效果。通过jps命令去每台机器上查看运行的进程。请观察是否在hadoop101上看到了master,worker在hadoop103,hadoop102上看到了worker。

11.查看启动效果。打开浏览器,输入hadoop100:8080。看到效果如下:

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词