欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 汽车 > 维修 > 运行Spark程序-在shell中运行

运行Spark程序-在shell中运行

2025/5/15 2:20:13 来源:https://blog.csdn.net/2303_82118663/article/details/147919598  浏览:    关键词:运行Spark程序-在shell中运行

Spark Shell运行程序步骤

  1. 启动Spark Shell
    根据语言选择启动命令:
  • Scala版本(默认):执行spark-shell
  • Python版本:执行pyspark
  1. 数据加载示例
    读取本地文本文件:
// Scala版本
val textData = sc.textFile("file:///path/to/file.txt")// Python版本
text_data = sc.textFile("file:///path/to/file.txt")

  1. 执行数据处理
    实现词频统计(两种语言示例):
// Scala版本
val wordCounts = textData.flatMap(_.split(" ")).map(word => (word, 1)).reduceByKey(_ + _)wordCounts.collect().foreach(println)

# Python版本
word_counts = text_data \.flatMap(lambda line: line.split(" ")) \.map(lambda word: (word, 1)) \.reduceByKey(lambda a,b: a+b)word_counts.collect()

  1. 结果输出
    保存到HDFS(两种语言通用):
wordCounts.saveAsTextFile("hdfs:///output/path")

  1. 退出环境
    输入命令:quitCtrl+D

注意事项

  1. 路径说明
  • 本地文件需加file://前缀
  • 集群文件使用hdfs://协议头
  1. 执行触发
    转换操作(如map/filter)需要执行动作(如collect/count)才会触发计算

  2. 配置调优
    启动时可添加参数:

spark-shell --master yarn --executor-memory 4g

  1. 日志控制
    在Shell中调整日志级别:
sc.setLogLevel("WARN")

验证示例

在Shell中运行快速验证:

// 创建测试RDD
val nums = sc.parallelize(1 to 100)
println(s"数据总量:${nums.count()}") 

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词