本文整理汇总了Python中pyspark.SparkConf.setSparkHome方法的典型用法代码示例。如果您正苦于以下问题:Python SparkConf.setSparkHome方法的具体用法?Python SparkConf.setSparkHome怎么用?Python SparkConf.setSparkHome使用的例子?那么恭喜您, 这里精选的方法代码示例或许可以为您提供帮助。您也可以进一步了解该方法所在类pyspark.SparkConf
的用法示例。
在下文中一共展示了SparkConf.setSparkHome方法的1个代码示例,这些例子默认根据受欢迎程度排序。您可以为喜欢或者感觉有用的代码点赞,您的评价将有助于系统推荐出更棒的Python代码示例。
示例1: SparkConf
# 需要导入模块: from pyspark import SparkConf [as 别名]
# 或者: from pyspark.SparkConf import setSparkHome [as 别名]
from pyspark.mllib.classification import SVMWithSGD
from pyspark import SparkContext
from pyspark import SparkConf
from convert import *
from reduce_dimension import *
app_name = "WordCount"
spark_master = "spark://Kingdom:7077"
spark_home = "../spark-1.3.1-bin-hadoop2.4"
conf = SparkConf()
conf.setMaster(spark_master)
conf.setSparkHome(spark_home)
conf.setAppName(app_name)
conf.set("spark.executor.memory", "1g")
#conf.set("spark.akka.frameSize", "100")
#conf.set("spark.serializer", "org.apache.spark.serializer.KryoSerializer")
#conf.set("spark.kryoserializer.buffer.mb", "64")
#conf.set("spark.executor.extraJavaOptions", "-XX:+UseCompressedOops")
#conf.set("spark.storage.memoryFraction", "0.6")
sc = SparkContext(conf=conf, pyFiles=["main.py", "convert.py", "attributes.py"])
# Return the sorted label, and the weight list
def get_sorted_label(training_data):
rdd = training_data.map(lambda x: int(x.label))
items = sorted(rdd.countByValue().items(), key=lambda x: x[0])