Ответ 1
Вы можете следить за шагами Building the Runnable Distribution, как упоминал Gimby, например:
./make-distribution.sh --name custom-spark --tgz -Psparkr -Phadoop-2.4 -Phive -Phive-thriftserver -Pyarn
Как упоминал Патрик МакГлоин, вы также можете запустить Spark Cluster на самой Windows, например:
spark-class.cmd org.apache.spark.deploy.master.Master
spark-class.cmd org.apache.spark.deploy.worker.Worker spark://localhost:7077
Вы можете прочитать больше в Спарковый автономный режим и Как настроить Spark-кластер в Windows машины?
Наконец, как упоминалось в OP, (s), он смог построить исполняемый дистрибутив, создавший новый tar файл Custom-spark в родительском каталоге. (S) он взял этот файл, распаковал его в другом каталоге, перешел в подкаталог bin и затем смог открыть scala -shell.