我的操作系统是 Ubuntu 16,我的目标是import pyspark
在 Jupyter Notebook 中,而不必从我安装 Spark 的目录中启动 Jupyter Notebook(通过控制台)。我findspark
像这样试过
import findspark
findspark.init("directory_where_I_installed_spark_to")
import pyspark
这适用于一个会话,但是当我关闭会话并再次打开笔记本时,import pyspark
让我ImportError: No module 'pyspark'
. 我错过了什么?
我通过编辑此处概述的 .bashrc 文件实现了我的目标https://medium.com/@GalarnykMichael/install-spark-on-ubuntu-pyspark-231c45677de0(第 7 步)。
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句