Ответ 1
README для версии 0.2.6 утверждает следующее:
В любом случае, когда вы действительно не можете указывать зависимости Spark с помощью
sparkComponents
(например, у вас есть правила исключения) и настроить их какprovided
(например, автономный баннер для демонстрации), вы можете использоватьspIgnoreProvided := true
для правильного используйте плагинassembly
.
Затем вы должны использовать этот флаг в определении сборки и установить свои зависимости Spark как provided
, как я делаю с spark-sql:2.2.0
в следующем примере:
libraryDependencies += "org.apache.spark" %% "spark-sql" % "2.2.0" % "provided"
Обратите внимание, что, установив это, ваша IDE может больше не иметь ссылок на необходимые зависимости для компиляции и запуска вашего кода локально, что означало бы, что вам нужно будет вручную добавить необходимые JAR в путь к классам. Я часто это делаю на IntelliJ, у меня есть дистрибутив Spark на моей машине и добавление его каталога jars
в определение проекта IntelliJ (этот вопрос может помочь вам с этим, если вам это нужно).