Ответ 1
Можно ли открыть "подпрограммы" из задачи?
Нет, по крайней мере, не здоровым образом *.
Задача - это команда, отправленная из драйвера, а Spark имеет один драйвер (центральный координатор), который связывается со многими распределенными рабочими (исполнителями).
В результате то, что вы просите здесь, подразумевает, что каждая задача может играть роль вспомогательного драйвера. Даже работник, который бы верил в мой ответ, как задачу.
Замечательные ресурсы:
- Что такое задача в Spark? Как рабочий Spark выполняет файл jar?
- Что такое рабочие, исполнители, ядра в автономном кластере Spark?
* С учетом сказанного я имею в виду, что я не знаю ни о каком хаке или что-то, что, если существует, было бы слишком специфичным.