rand_forest()
定义了一个模型,该模型创建大量决策树,每个决策树彼此独立。最终的预测使用各个树的所有预测并将它们组合起来。该函数可以拟合分类、回归和审查回归模型。
拟合该模型的方法有多种,通过设置模型引擎来选择估计方法。下面列出了该模型的引擎特定页面。
1 默认引擎。 ² 需要一个防风草扩展包来进行审查回归、分类和回归。有关如何操作的更多信息防风草用于建模的是https://www.tidymodels.org/.
参数
- mode
-
预测结果模式的单个字符串。此模型的可能值为"unknown"、"regression" 或"classification"。
- engine
-
指定用于拟合的计算引擎的单个字符串。
- mtry
-
创建树模型时在每次分割时随机采样的预测变量数量的整数。
- trees
-
集合中包含的树数的整数。
- min_n
-
节点中进一步拆分节点所需的最小数据点数量的整数。
细节
此函数仅定义正在拟合的模型类型。一旦指定了引擎,也就定义了拟合模型的方法。有关设置引擎的更多信息,包括如何设置引擎参数,请参阅set_engine()
。
在 fit()
函数与数据一起使用之前,模型不会经过训练或拟合。
此函数中除 mode
和 engine
之外的每个参数都被捕获为 quosures 。要以编程方式传递值,请使用injection operator,如下所示:
value <- 1
rand_forest(argument = !!value)
例子
show_engines("rand_forest")
#> # A tibble: 6 × 2
#> engine mode
#> <chr> <chr>
#> 1 ranger classification
#> 2 ranger regression
#> 3 randomForest classification
#> 4 randomForest regression
#> 5 spark classification
#> 6 spark regression
rand_forest(mode = "classification", trees = 2000)
#> Random Forest Model Specification (classification)
#>
#> Main Arguments:
#> trees = 2000
#>
#> Computational engine: ranger
#>
相关用法
- R parsnip repair_call 修复模型调用对象
- R parsnip rule_fit 规则拟合模型
- R parsnip required_pkgs.model_spec 确定模型所需的包
- R parsnip logistic_reg 逻辑回归
- R parsnip predict.model_fit 模型预测
- R parsnip linear_reg 线性回归
- R parsnip C5_rules C5.0 基于规则的分类模型
- R parsnip set_engine 声明计算引擎和特定参数
- R parsnip condense_control 将控制对象压缩为更小的控制对象
- R parsnip control_parsnip 控制拟合函数
- R parsnip augment 通过预测增强数据
- R parsnip dot-model_param_name_key 翻译模型调整参数的名称
- R parsnip glm_grouped 将数据集中的分组二项式结果与个案权重拟合
- R parsnip svm_rbf 径向基函数支持向量机
- R parsnip set_args 更改模型规范的元素
- R parsnip translate 解决计算引擎的模型规范
- R parsnip max_mtry_formula 根据公式确定 mtry 的最大值。此函数可能会根据公式和数据集限制 mtry 的值。对于生存和/或多变量模型来说,这是一种安全的方法。
- R parsnip svm_linear 线性支持向量机
- R parsnip set_new_model 注册模型的工具
- R parsnip mlp 单层神经网络
- R parsnip nearest_neighbor K-最近邻
- R parsnip parsnip_update 更新型号规格
- R parsnip fit 将模型规范拟合到数据集
- R parsnip boost_tree 增强树
- R parsnip bart 贝叶斯加性回归树 (BART)
注:本文由纯净天空筛选整理自Max Kuhn等大神的英文原创作品 Random forest。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。