1、本地模式启动spark-shell
备注: 本地模式没有链接到集群,是在本地执行spark任务
到如下路径,一般spark都装在如下位置
cd /usr/local/spark启动spark-shell
./bin/spark-shell结果如下图时表示本地模式的spark-shell启动成功 启动时打印的日志
Spark context available as 'sc' (master = local[*], app id = local-1606618642639). 2、集群模式启动spark-shell到如下路径,一般spark都装在如下位置
cd /usr/local/spark启动spark-shell
##集群模式需要指定master的地址 ./bin/spark-shell --master spark://192.168.123.153:7077结果如下图时表示集群模式的spark-shell启动成功
打印的日志
Spark context available as 'sc' (master = spark://192.168.123.153:7077, app id = app-20201129112021-0004).补充: Spark-Shell是作为一个程序在Spark上执行的
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,会注明原创字样,如未注明都非原创,如有侵权请联系删除!;3.作者投稿可能会经我们编辑修改或补充;4.本站不提供任何储存功能只提供收集或者投稿人的网盘链接。 |
标签: #sparkshell集群启动 #启动时打印的日志Spark #context #available #as #Sc