🔥码云GVP开源项目 12k star Uniapp+ElementUI 功能强大 支持多语言、二开方便! 广告
**spark-shell:** Spark自带的交互式工具,可以使用下面三种模式之一进入Spakr Shell。 <br/> **1. 本地模式** ```shell -- local[4] 则启动4个进程 -- local[*] 则启动与服务器内核数一样多的进程 [root@hadoop101 spark]# spark-shell --master local[*] ``` **2. Standalone模式** ```shell -- hadoop101为主机名 [root@hadoop101 spark]# spark-shell --master spark://hadoop101:7077 ``` **3. YARN模式** ```shell -- 这个是客户模式,适用于调式 [root@hadoop101 spark]# spark-shell --master yarn-client -- 或者部署为集群模式,适用于生产环境 [root@hadoop101 spark]# spark-shell --master yarn ``` <br/> **wordcount案例,统计单词个数:** ```shell (1)创建hello.txt文件 [root@hadoop101 spark]# vim /datas/hello.txt hello world welcome hello welcome (2)在hdfs上创建spark目录并上传hello.txt到spark目录上 [root@hadoop101 spark]# hdfs dfs -mkdir /spark [root@hadoop101 spark]# hdfs dfs -put /datas/hello.txt /spark/ (3)进入spark shell执行程序 scala> sc.textFile("hdfs://hadoop101:9000/spark/hello.txt").flatMap(x=>x.split("\\s+")).map(x=>(x,1)).reduceByKey(_+_).collect res6: Array[(String, Int)] = Array(("",2), (hello,2), (welcome,2), (world,1)) ```