频道栏目
首页 > 网络 > 云计算 > 正文

Spark2.0安装

2016-12-26 09:59:49         来源:kaidy的专栏  
收藏   我要投稿

准备工作

运行Spark2.0,需要java和scala的支持,JDK至少1.7版本以上,scala至少2.11版本以上,CentOS7.x系统默认只安装了Java JRE,还需要安装Java JDK,并配置好JAVA_HOME变量。

安装Spark

1、下载安装

2、配置Spark环境

spark-defaults.conf配置一些jar包的引用。(注意:spark2.0.1版本不再有lib文件夹,只有jars文件夹,所以需要加上这个jars文件路径)

 

spark-env.sh配置spark的运行环境(比如:配置Java的路径JAVA_HOME,配置scala的路径等)

export JAVA_HOME=/usr/java/...

export SCALA_HOME=/usr/local/scala

相关TAG标签 Spark Spark安装
上一篇:Hadoop中hdfs启动
下一篇:KubernetesGCinv1.3
相关文章
图文推荐

关于我们 | 联系我们 | 广告服务 | 投资合作 | 版权申明 | 在线帮助 | 网站地图 | 作品发布 | Vip技术培训 | 举报中心

版权所有: 红黑联盟--致力于做实用的IT技术学习网站