Ответ 1
У меня установлен Jupyter, и, действительно, это проще, чем вы думаете:
- Установите anaconda для OSX.
-
Установите jupyter, набрав следующую строку в вашем терминале Нажмите меня для получения дополнительной информации.
[email protected]:~$ conda install jupyter
-
Обновите jupyter на всякий случай.
[email protected]:~$ conda update jupyter
-
Загрузите Apache Spark и скомпилируйте его, или скачайте и распакуйте Apache Spark 1.5.1 + Hadoop 2.6.
[email protected]:~$ cd Downloads [email protected]:~/Downloads$ wget http://www.apache.org/dyn/closer.lua/spark/spark-1.5.1/spark-1.5.1-bin-hadoop2.6.tgz
-
Создайте папку
Apps
в вашем доме (i.e):[email protected]:~/Downloads$ mkdir ~/Apps
-
Переместите несжатую папку
spark-1.5.1
в каталог~/Apps
.[email protected]:~/Downloads$ mv spark-1.5.1/ ~/Apps
-
Переместитесь в каталог
~/Apps
и убедитесь в наличии искры.[email protected]:~/Downloads$ cd ~/Apps [email protected]:~/Apps$ ls -l drwxr-xr-x ?? ilovejobs ilovejobs 4096 ?? ?? ??:?? spark-1.5.1
-
Вот первая сложная часть. Добавьте двоичные файлы искры в
$PATH
:[email protected]:~/Apps$ cd [email protected]:~$ echo "export $HOME/apps/spark/bin:$PATH" >> .profile
-
Вот вторая сложная часть. Добавьте также переменные среды:
[email protected]:~$ echo "export PYSPARK_DRIVER_PYTHON=ipython" >> .profile [email protected]:~$ echo "export PYSPARK_DRIVER_PYTHON_OPTS='notebook' pyspark" >> .profile
-
Введите профиль, чтобы сделать эти переменные доступными для этого терминала
[email protected]:~$ source .profile
-
Создайте каталог
~/notebooks
.[email protected]:~$ mkdir notebooks
-
Переместитесь в
~/notebooks
и запустите pyspark:[email protected]:~$ cd notebooks [email protected]:~/notebooks$ pyspark
Обратите внимание, что вы можете добавить эти переменные в .bashrc
, расположенный в вашем доме.
Теперь будьте счастливы, вы должны будете запустить jupyter с ядром pyspark (он покажет его как python 2, но он будет использовать искру)