当前位置: 首页>>代码示例>>Python>>正文


Python SparkConf.setSparkHome方法代码示例

本文整理汇总了Python中pyspark.SparkConf.setSparkHome方法的典型用法代码示例。如果您正苦于以下问题:Python SparkConf.setSparkHome方法的具体用法?Python SparkConf.setSparkHome怎么用?Python SparkConf.setSparkHome使用的例子?那么恭喜您, 这里精选的方法代码示例或许可以为您提供帮助。您也可以进一步了解该方法所在pyspark.SparkConf的用法示例。


在下文中一共展示了SparkConf.setSparkHome方法的1个代码示例,这些例子默认根据受欢迎程度排序。您可以为喜欢或者感觉有用的代码点赞,您的评价将有助于系统推荐出更棒的Python代码示例。

示例1: SparkConf

# 需要导入模块: from pyspark import SparkConf [as 别名]
# 或者: from pyspark.SparkConf import setSparkHome [as 别名]
from pyspark.mllib.classification import SVMWithSGD
from pyspark import SparkContext
from pyspark import SparkConf

from convert import *
from reduce_dimension import *


app_name = "WordCount"
spark_master = "spark://Kingdom:7077"
spark_home = "../spark-1.3.1-bin-hadoop2.4"

conf = SparkConf()
conf.setMaster(spark_master)
conf.setSparkHome(spark_home)
conf.setAppName(app_name)
conf.set("spark.executor.memory", "1g")
#conf.set("spark.akka.frameSize", "100")
#conf.set("spark.serializer", "org.apache.spark.serializer.KryoSerializer")
#conf.set("spark.kryoserializer.buffer.mb", "64")
#conf.set("spark.executor.extraJavaOptions", "-XX:+UseCompressedOops")
#conf.set("spark.storage.memoryFraction", "0.6")
sc = SparkContext(conf=conf, pyFiles=["main.py", "convert.py", "attributes.py"])


# Return the sorted label, and the weight list
def get_sorted_label(training_data):
    rdd = training_data.map(lambda x: int(x.label))
    items = sorted(rdd.countByValue().items(), key=lambda x: x[0])
开发者ID:hwaohung,项目名称:spark_train,代码行数:31,代码来源:main.py


注:本文中的pyspark.SparkConf.setSparkHome方法示例由纯净天空整理自Github/MSDocs等开源代码及文档管理平台,相关代码片段筛选自各路编程大神贡献的开源项目,源码版权归原作者所有,传播和使用请参考对应项目的License;未经允许,请勿转载。