博客
关于我
mac下Python2运行SparkSQL
阅读量:96 次
发布时间:2019-02-26

本文共 601 字,大约阅读时间需要 2 分钟。

1. 环境如下

参考:https://blog.csdn.net/qq_21383435/article/details/79240276

##1.1 安装Anaconda

https://www.anaconda.com/download/#macos

这里写图片描述

注意:这里建议下载Python 2.7 version *,因为最新的spark可能不支持

1.2 配置环境变量

lcc@lcc ~$ vim .bash_profileexport SPARK_HOME=/Users/lcc/soft/spark/spark-2.0.1-bin-hadoop2.7export PATH=$PATH:$SPARK_HOME/binexport PYTHONPATH=/Users/lcc/soft/spark/spark-2.0.1-bin-hadoop2.7/python:/Users/lcc/soft/spark/spark-2.0.1-bin-hadoop2.7/python/lib/py4j-0.10.3-src.zipexport PYSPARK_DRIVER_PYTHON=/anaconda2/bin/ipython# added by Anaconda2 5.2.0 installerexport PATH="/anaconda2/bin:$PATH"

##1.3 配置PyCharm</

你可能感兴趣的文章
mysql中出现Incorrect DECIMAL value: '0' for column '' at row -1错误解决方案
查看>>
mysql中出现Unit mysql.service could not be found 的解决方法
查看>>
mysql中出现update-alternatives: 错误: 候选项路径 /etc/mysql/mysql.cnf 不存在 dpkg: 处理软件包 mysql-server-8.0的解决方法(全)
查看>>
Mysql中各类锁的机制图文详细解析(全)
查看>>