频道栏目
首页 > 资讯 > 其他 > 正文

spark 包 - yaml依赖、spark依赖

18-05-08        来源:[db:作者]  
收藏   我要投稿

yaml依赖

```

sudo pip install pyyaml

```

- spark依赖

将spark-2.2.1-bin-hadoop2.7/python/lib下的 `py4j-0.10.4-src.zip` 和 `pyspark.zip` 文件解压,

将解压后的文件放在运行环境所在服务器的python2.7 所在的 site-packages目录下

site-packages目录获取方法:

命令行输入

```

python

```

在python客户端输入

```

import site

site.getsitepackages()

```

即可获得site-packages目录。

- mysql依赖

```

sudo pip install MySQL-python

```

- DBUtils 数据库连接池

```

sudo pip install DBUtils

```

这些是依赖包

依赖包检测方法

import yaml

import json

from pyspark.sql import SparkSession

from pyspark.sql import Row

import MySQLdb

from MySQLdb.cursors import DictCursor

from DBUtils.PooledDB import PooledDB

相关TAG标签
上一篇:RHCE之iSCSI介绍与运用
下一篇:Hive使用SparkonYarn作为执行引擎的操作过程
相关文章
图文推荐

关于我们 | 联系我们 | 广告服务 | 投资合作 | 版权申明 | 在线帮助 | 网站地图 | 作品发布 | Vip技术培训 | 举报中心

版权所有: 红黑联盟--致力于做实用的IT技术学习网站