若当连接到Spark的master之后,若集群中没有分布式文件系统,Spark会在集群中每一台机器上加载数据,所以要确保Spark集群中每个节点上都有完整数据。

通常可以选择把数据放到HDFS、S3或者类似的分布式文件系统去避免这个问题。