finalize_*
函数采用调整参数值的列表或小标题,并使用这些值更新对象。
参数
- x
-
配方、
parsnip
模型规范或工作流程。 - parameters
-
参数值的列表或 1 行小标题。请注意,tibble 的列名称应该是附加到
tune()
的id
字段。例如,在下面的Examples
部分中,模型具有tune("K")
。在这种情况下,参数 tibble 应为 "K" 而不是 "neighbors"。
例子
data("example_ames_knn")
library(parsnip)
knn_model <-
nearest_neighbor(
mode = "regression",
neighbors = tune("K"),
weight_func = tune(),
dist_power = tune()
) %>%
set_engine("kknn")
lowest_rmse <- select_best(ames_grid_search, metric = "rmse")
lowest_rmse
#> # A tibble: 1 × 6
#> K weight_func dist_power lon lat .config
#> <int> <chr> <dbl> <int> <int> <chr>
#> 1 33 triweight 0.511 10 3 Preprocessor10_Model1
knn_model
#> K-Nearest Neighbor Model Specification (regression)
#>
#> Main Arguments:
#> neighbors = tune("K")
#> weight_func = tune()
#> dist_power = tune()
#>
#> Computational engine: kknn
#>
finalize_model(knn_model, lowest_rmse)
#> K-Nearest Neighbor Model Specification (regression)
#>
#> Main Arguments:
#> neighbors = 33
#> weight_func = triweight
#> dist_power = 0.511191629664972
#>
#> Computational engine: kknn
#>
相关用法
- R tune filter_parameters 删除一些调整参数结果
- R tune fit_best 将模型拟合到数值最优配置
- R tune fit_resamples 通过重采样拟合多个模型
- R tune coord_obs_pred 对观察值与预测值的绘图使用相同的比例
- R tune extract-tune 提取调整对象的元素
- R tune conf_mat_resampled 计算重采样的平均混淆矩阵
- R tune tune_bayes 模型参数的贝叶斯优化。
- R tune collect_predictions 获取并格式化由调整函数产生的结果
- R tune show_best 研究最佳调整参数
- R tune expo_decay 指数衰减函数
- R tune merge.recipe 将参数网格值合并到对象中
- R tune autoplot.tune_results 绘图调整搜索结果
- R tune tune_grid 通过网格搜索进行模型调整
- R tune dot-use_case_weights_with_yardstick 确定案例权重是否应传递至标准
- R tune message_wrap 写一条尊重线宽的消息
- R tune prob_improve 用于对参数组合进行评分的获取函数
- R tune last_fit 将最终的最佳模型拟合到训练集并评估测试集
- R update_PACKAGES 更新现有的 PACKAGES 文件
- R textrecipes tokenlist 创建令牌对象
- R themis smotenc SMOTENC算法
- R print.via.format 打印实用程序
- R tibble tibble 构建 DataFrame 架
- R tidyr separate_rows 将折叠的列分成多行
- R textrecipes step_lemma 标记变量的词形还原
- R textrecipes show_tokens 显示配方的令牌输出
注:本文由纯净天空筛选整理自Max Kuhn等大神的英文原创作品 Splice final parameters into objects。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。