频道栏目
首页 > 资讯 > 云计算 > 正文

Spark2.1.0在windows下的单机环境搭建

17-01-21        来源:[db:作者]  
收藏   我要投稿

Spark2.1.0在windows下的单机环境搭建:该文用于讲解在windows下spark开发环境的搭建,因为现在网上的搭建多在于旧版本中,且还原系数难度很大。

材料准备

spark安装包 JDK 8 IDEA开发工具 scala 2.11.8 (注:spark2.1.0环境于scala2.11环境开发,所以必须版本对应 scala不是必须安装的,如果你是打算使用scala进行spark开发,则需要安装

环境搭建步骤

将spark-2.1.0-bin-hadoop2.x版本至c盘下即可

解压

将spark中的jar包全部提取出来另外放到一地方用于进行开发

提取jar包

新建IDEA项目,将所有jar包导入到IDEA工程当中

IDEA

书写相应代码运行即可成功

以Scala书写的WordCount为例

package org.data

import org.apache.spark._

/**
  * Created by Joe on 2017/1/16.
*/
object WordCount {
    def main(args : Array[String]): Unit = {
        val inputPath = "C:/spark-2.1.0-bin-hadoop2.6/README.md"
        val conf = new SparkConf().setMaster("local").setAppName("WordCount")
        val sc = new SparkContext(conf)

        val rowRdd = sc.textFile(inputPath)
        println(rowRdd.take(1).toString)
        val resultRdd = rowRdd.flatMap(line => line.split("\\s+"))
                            .map(word => (word, 1)).reduceByKey(_ + _)
        println(resultRdd.take(2).toString)
        for (data <- resultRdd) {
           println(data)
        }
        sc.stop()
    }
}

之后用ctrl + shift + F10 运行,即可看到结果

这里可以看到spark已经正常启动了

后面可以看到wordCount的结果和spark结束的消息


注意事项

有很多人喜欢看spark-shell是否启动成功,但是spark-shell是否启动成功和能否在IDE中开发spark完全是两码事情。在本篇博文中的spark-shell也是会启动失败的,但是并不会影响spark在IDEA中的local启动


spark-shell的报错完全无须任何理睬

hadoop_home配置不配置良可,但是有些人看到报错还是会很难受,下面给大家提供winutils的下载路径,加载配置HADOOP_HOME路径即可

相关TAG标签
上一篇:Linux-使用vmstat和iostat/iotop命令进行Linux性能监控
下一篇:排序算法(三)交换排序
相关文章
图文推荐

关于我们 | 联系我们 | 广告服务 | 投资合作 | 版权申明 | 在线帮助 | 网站地图 | 作品发布 | Vip技术培训 | 举报中心

版权所有: 红黑联盟--致力于做实用的IT技术学习网站