./bin/spark-shell --master Spark的运行模式取决于传递给SparkContext的Master URL的值。Master URL可以是以下任一种形式: 1、* local 使用一个 运行SPARK(完全不并行); 2、* local[*] 使用 数量的线程来本地化运行Spark; 3、* local[K] 使用 运行Spark(理想情况下,K应该根据运行机器的CPU核数设定); 4、* spark://HOST:PORT 连接到指定的 。默认端口是 ; 5、* yarn-client 以 模式连接 。集群的位置可以在HADOOP_CONF_DIR 环境变量中找到; 6、* yarn-cluster 以 模式连接 。集群的位置可以在HADOOP_CONF_DIR 环境变量中找到; 7、* mesos://HOST:PORT 连接到指定的 。默认接口是 。