本文簡要介紹
pyspark.mllib.tree.DecisionTree.trainRegressor
的用法。用法:
classmethod trainRegressor(data, categoricalFeaturesInfo, impurity='variance', maxDepth=5, maxBins=32, minInstancesPerNode=1, minInfoGain=0.0)
訓練回歸的決策樹模型。
- data:
pyspark.RDD
訓練數據:LabeledPoint 的 RDD。標簽是實數。
- categoricalFeaturesInfo:dict
Map存儲分類特征的數量。條目 (n -> k) 表示特征 n 是分類的,其中 k 個類別從 0 開始索引:{0, 1, ..., k-1}。
- impurity:str,可選
用於信息增益計算的標準。唯一支持的回歸值是“variance”。 (默認:“variance”)
- maxDepth:整數,可選
樹的最大深度(例如,深度 0 表示 1 個葉節點,深度 1 表示 1 個內部節點 + 2 個葉節點)。 (默認值:5)
- maxBins:整數,可選
用於在每個節點處查找拆分的箱數。 (默認值:32)
- minInstancesPerNode:整數,可選
子節點創建父拆分所需的最小實例數。 (默認值:1)
- minInfoGain:浮點數,可選
創建拆分所需的最小信息增益。 (默認值:0.0)
- data:
參數:
返回:
例子:
>>> from pyspark.mllib.regression import LabeledPoint >>> from pyspark.mllib.tree import DecisionTree >>> from pyspark.mllib.linalg import SparseVector >>> >>> sparse_data = [ ... LabeledPoint(0.0, SparseVector(2, {0: 0.0})), ... LabeledPoint(1.0, SparseVector(2, {1: 1.0})), ... LabeledPoint(0.0, SparseVector(2, {0: 0.0})), ... LabeledPoint(1.0, SparseVector(2, {1: 2.0})) ... ] >>> >>> model = DecisionTree.trainRegressor(sc.parallelize(sparse_data), {}) >>> model.predict(SparseVector(2, {1: 1.0})) 1.0 >>> model.predict(SparseVector(2, {1: 0.0})) 0.0 >>> rdd = sc.parallelize([[0.0, 1.0], [0.0, 0.0]]) >>> model.predict(rdd).collect() [1.0, 0.0]
1.1.0 版中的新函數。
相關用法
- Python pyspark DecisionTree.trainClassifier用法及代碼示例
- Python pyspark DecisionTreeClassifier用法及代碼示例
- Python pyspark DecisionTreeRegressor用法及代碼示例
- Python pyspark DenseMatrix.toArray用法及代碼示例
- Python pyspark DenseVector.parse用法及代碼示例
- Python pyspark DenseVector用法及代碼示例
- Python pyspark DenseVector.squared_distance用法及代碼示例
- Python pyspark DenseVector.norm用法及代碼示例
- Python pyspark DenseVector.dot用法及代碼示例
- Python pyspark DataFrame.to_latex用法及代碼示例
- Python pyspark DataStreamReader.schema用法及代碼示例
- Python pyspark DataFrame.align用法及代碼示例
- Python pyspark DataFrame.plot.bar用法及代碼示例
- Python pyspark DataFrame.to_delta用法及代碼示例
- Python pyspark DataFrame.quantile用法及代碼示例
- Python pyspark DataFrameWriter.partitionBy用法及代碼示例
- Python pyspark DataFrame.cumsum用法及代碼示例
- Python pyspark DatetimeIndex.is_month_start用法及代碼示例
- Python pyspark DataFrame.iloc用法及代碼示例
- Python pyspark DatetimeIndex.normalize用法及代碼示例
- Python pyspark DataFrame.dropDuplicates用法及代碼示例
- Python pyspark DatetimeIndex.is_month_end用法及代碼示例
- Python pyspark DataFrame.printSchema用法及代碼示例
- Python pyspark DataFrame.to_table用法及代碼示例
- Python pyspark DatetimeIndex.is_quarter_start用法及代碼示例
注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 pyspark.mllib.tree.DecisionTree.trainRegressor。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。