Docker中提交任务到Spark集群

1. 背景描述和需求 数据分析程序部署在Docker中,有一些分析计算需要使用Spark计算,需要把任务提交到Spark集群计算。 接收程序部署在Docker中,主机不在Hadoop集群上。与Spark集群网络互通。 需求如下 1、在Docker中可程序化向Spark集群提交任务 2、在Docker
posted @ 2020-07-03 18:08  MyStitch  阅读(2239)  评论(0编辑  收藏  举报