本文简要介绍
pyspark.SparkConf
的用法。用法:
class pyspark.SparkConf(loadDefaults=True, _jvm=None, _jconf=None)
Spark 应用程序的配置。用于将各种 Spark 参数设置为键值对。
大多数时候,您会使用
SparkConf()
创建 SparkConf 对象,该对象也会从spark.*
Java 系统属性加载值。在这种情况下,直接在SparkConf
对象上设置的任何参数都优先于系统属性。对于单元测试,您还可以调用
SparkConf(false)
跳过加载外部设置并获得相同的配置,无论系统属性是什么。此类中的所有 setter 方法都支持链接。例如,您可以编写
conf.setMaster("local").setAppName("My app")
。- loadDefaults:bool
是否从 Java 系统属性中加载值(默认为 True)
- _jvm:类:
py4j.java_gateway.JVMView
用于将句柄传递给 Java VM 的内部参数;不需要用户设置
- _jconf:类:
py4j.java_gateway.JavaObject
可选择传入现有的 SparkConf 句柄以使用其参数
参数:
注意:
一旦将SparkConf 对象传递给 Spark,它就会被克隆并且用户不能再修改。
例子:
>>> from pyspark.conf import SparkConf >>> from pyspark.context import SparkContext >>> conf = SparkConf() >>> conf.setMaster("local").setAppName("My app") <pyspark.conf.SparkConf object at ...> >>> conf.get("spark.master") 'local' >>> conf.get("spark.app.name") 'My app' >>> sc = SparkContext(conf=conf) >>> sc.master 'local' >>> sc.appName 'My app' >>> sc.sparkHome is None True
>>> conf = SparkConf(loadDefaults=False) >>> conf.setSparkHome("/path") <pyspark.conf.SparkConf object at ...> >>> conf.get("spark.home") '/path' >>> conf.setExecutorEnv("VAR1", "value1") <pyspark.conf.SparkConf object at ...> >>> conf.setExecutorEnv(pairs = [("VAR3", "value3"), ("VAR4", "value4")]) <pyspark.conf.SparkConf object at ...> >>> conf.get("spark.executorEnv.VAR1") 'value1' >>> print(conf.toDebugString()) spark.executorEnv.VAR1=value1 spark.executorEnv.VAR3=value3 spark.executorEnv.VAR4=value4 spark.home=/path >>> for p in sorted(conf.getAll(), key=lambda p: p[0]): ... print(p) ('spark.executorEnv.VAR1', 'value1') ('spark.executorEnv.VAR3', 'value3') ('spark.executorEnv.VAR4', 'value4') ('spark.home', '/path') >>> conf._jconf.setExecutorEnv("VAR5", "value5") JavaObject id... >>> print(conf.toDebugString()) spark.executorEnv.VAR1=value1 spark.executorEnv.VAR3=value3 spark.executorEnv.VAR4=value4 spark.executorEnv.VAR5=value5 spark.home=/path
相关用法
- Python pyspark SparkContext.addFile用法及代码示例
- Python pyspark SparkContext.union用法及代码示例
- Python pyspark SparkContext.runJob用法及代码示例
- Python pyspark SparkContext.parallelize用法及代码示例
- Python pyspark SparkContext用法及代码示例
- Python pyspark SparkContext.range用法及代码示例
- Python pyspark SparkContext.setJobGroup用法及代码示例
- Python pyspark SparkContext.pickleFile用法及代码示例
- Python pyspark SparkContext.applicationId用法及代码示例
- Python pyspark SparkContext.wholeTextFiles用法及代码示例
- Python pyspark SparkContext.textFile用法及代码示例
- Python pyspark SparkSession.createDataFrame用法及代码示例
- Python pyspark SparkSession.table用法及代码示例
- Python pyspark SparkSession用法及代码示例
- Python pyspark SparkSession.builder.config用法及代码示例
- Python pyspark SparkSession.getActiveSession用法及代码示例
- Python pyspark SparkSession.range用法及代码示例
- Python pyspark SparkSession.sql用法及代码示例
- Python pyspark SparkSession.builder.getOrCreate用法及代码示例
- Python pyspark SparseVector.parse用法及代码示例
- Python pyspark SparseVector.dot用法及代码示例
- Python pyspark SparseVector.squared_distance用法及代码示例
- Python pyspark SparseVector.norm用法及代码示例
- Python pyspark Series.asof用法及代码示例
- Python pyspark Series.to_frame用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.SparkConf。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。