rand_forest()
定義了一個模型,該模型創建大量決策樹,每個決策樹彼此獨立。最終的預測使用各個樹的所有預測並將它們組合起來。該函數可以擬合分類、回歸和審查回歸模型。
擬合該模型的方法有多種,通過設置模型引擎來選擇估計方法。下麵列出了該模型的引擎特定頁麵。
1 默認引擎。 ² 需要一個防風草擴展包來進行審查回歸、分類和回歸。有關如何操作的更多信息防風草用於建模的是https://www.tidymodels.org/.
參數
- mode
-
預測結果模式的單個字符串。此模型的可能值為"unknown"、"regression" 或"classification"。
- engine
-
指定用於擬合的計算引擎的單個字符串。
- mtry
-
創建樹模型時在每次分割時隨機采樣的預測變量數量的整數。
- trees
-
集合中包含的樹數的整數。
- min_n
-
節點中進一步拆分節點所需的最小數據點數量的整數。
細節
此函數僅定義正在擬合的模型類型。一旦指定了引擎,也就定義了擬合模型的方法。有關設置引擎的更多信息,包括如何設置引擎參數,請參閱set_engine()
。
在 fit()
函數與數據一起使用之前,模型不會經過訓練或擬合。
此函數中除 mode
和 engine
之外的每個參數都被捕獲為 quosures 。要以編程方式傳遞值,請使用injection operator,如下所示:
value <- 1
rand_forest(argument = !!value)
例子
show_engines("rand_forest")
#> # A tibble: 6 × 2
#> engine mode
#> <chr> <chr>
#> 1 ranger classification
#> 2 ranger regression
#> 3 randomForest classification
#> 4 randomForest regression
#> 5 spark classification
#> 6 spark regression
rand_forest(mode = "classification", trees = 2000)
#> Random Forest Model Specification (classification)
#>
#> Main Arguments:
#> trees = 2000
#>
#> Computational engine: ranger
#>
相關用法
- R parsnip repair_call 修複模型調用對象
- R parsnip rule_fit 規則擬合模型
- R parsnip required_pkgs.model_spec 確定模型所需的包
- R parsnip logistic_reg 邏輯回歸
- R parsnip predict.model_fit 模型預測
- R parsnip linear_reg 線性回歸
- R parsnip C5_rules C5.0 基於規則的分類模型
- R parsnip set_engine 聲明計算引擎和特定參數
- R parsnip condense_control 將控製對象壓縮為更小的控製對象
- R parsnip control_parsnip 控製擬合函數
- R parsnip augment 通過預測增強數據
- R parsnip dot-model_param_name_key 翻譯模型調整參數的名稱
- R parsnip glm_grouped 將數據集中的分組二項式結果與個案權重擬合
- R parsnip svm_rbf 徑向基函數支持向量機
- R parsnip set_args 更改模型規範的元素
- R parsnip translate 解決計算引擎的模型規範
- R parsnip max_mtry_formula 根據公式確定 mtry 的最大值。此函數可能會根據公式和數據集限製 mtry 的值。對於生存和/或多變量模型來說,這是一種安全的方法。
- R parsnip svm_linear 線性支持向量機
- R parsnip set_new_model 注冊模型的工具
- R parsnip mlp 單層神經網絡
- R parsnip nearest_neighbor K-最近鄰
- R parsnip parsnip_update 更新型號規格
- R parsnip fit 將模型規範擬合到數據集
- R parsnip boost_tree 增強樹
- R parsnip bart 貝葉斯加性回歸樹 (BART)
注:本文由純淨天空篩選整理自Max Kuhn等大神的英文原創作品 Random forest。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。