當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


R recipes step_relu 應用(平滑)修正線性變換


step_relu() 創建配方步驟的規範,該步驟將變量的校正線性或 softplus 變換添加到數據集。

用法

step_relu(
  recipe,
  ...,
  role = "predictor",
  trained = FALSE,
  shift = 0,
  reverse = FALSE,
  smooth = FALSE,
  prefix = "right_relu_",
  columns = NULL,
  skip = FALSE,
  id = rand_id("relu")
)

參數

recipe

一個菜譜對象。該步驟將添加到此配方的操作序列中。

...

一個或多個選擇器函數用於為此步驟選擇變量。有關更多詳細信息,請參閱selections()

role

對於此步驟創建的模型項,應為其分配什麽分析角色?默認情況下,此步驟根據原始變量創建的新列將用作模型中的預測變量。

trained

指示預處理數量是否已估計的邏輯。

shift

指示要應用於數據的轉換的數值。

reverse

指示是否應使用左鉸鏈而不是右鉸鏈的邏輯。

smooth

指示是否應使用 softplus 函數(修正線性變換的平滑近似)的邏輯。

prefix

生成的列名稱的前綴,對於右鉸鏈轉換默認為 "right_relu_",對於反向/左鉸鏈轉換默認為 "left_relu_"。

columns

所選變量名稱的字符串。該字段是一個占位符,一旦使用 prep() 就會被填充。

skip

一個合乎邏輯的。當bake() 烘焙食譜時是否應該跳過此步驟?雖然所有操作都是在 prep() 運行時烘焙的,但某些操作可能無法對新數據進行(例如處理結果變量)。使用skip = TRUE時應小心,因為它可能會影響後續操作的計算。

id

該步驟特有的字符串,用於標識它。

recipe 的更新版本,將新步驟添加到任何現有操作的序列中。

細節

修正線性變換計算如下

max(0, x - c)

也稱為ReLu 或右鉸鏈函數。如果reverse為 true,則變換將反映在 y 軸上,如下所示:
max(0, c - x)

設置smooth選項為 true 將根據以下公式計算 ReLu 的平滑近似值
ln(1 + e^{(x - c)})

reverse論證也可以應用於這種轉變。

連接火星

修正線性變換在多元自適應回歸樣條中用作基函數,以類似於基於樹的模型中采用的策略將分段線性函數擬合到數據。該變換是許多神經網絡中作為激活函數的流行選擇,在使用 ReLu 激活時,可以將其視為 MARS 的堆疊泛化。鉸鏈函數也出現在支持向量機的損失函數中,隻有當殘差在決策邊界的一定範圍內時,它才會對殘差進行懲罰。

箱重

底層操作不允許使用案例權重。

也可以看看

例子

data(biomass, package = "modeldata")

biomass_tr <- biomass[biomass$dataset == "Training", ]
biomass_te <- biomass[biomass$dataset == "Testing", ]

rec <- recipe(
  HHV ~ carbon + hydrogen + oxygen + nitrogen + sulfur,
  data = biomass_tr
)

transformed_te <- rec %>%
  step_relu(carbon, shift = 40) %>%
  prep(biomass_tr) %>%
  bake(biomass_te)

transformed_te
#> # A tibble: 80 × 7
#>    carbon hydrogen oxygen nitrogen sulfur   HHV right_relu_carbon
#>     <dbl>    <dbl>  <dbl>    <dbl>  <dbl> <dbl>             <dbl>
#>  1   46.4     5.67   47.2     0.3    0.22  18.3              6.35
#>  2   43.2     5.5    48.1     2.85   0.34  17.6              3.25
#>  3   42.7     5.5    49.1     2.4    0.3   17.2              2.70
#>  4   46.4     6.1    37.3     1.8    0.5   18.9              6.4 
#>  5   48.8     6.32   42.8     0.2    0     20.5              8.76
#>  6   44.3     5.5    41.7     0.7    0.2   18.5              4.30
#>  7   38.9     5.23   54.1     1.19   0.51  15.1              0   
#>  8   42.1     4.66   33.8     0.95   0.2   16.2              2.10
#>  9   29.2     4.4    31.1     0.14   4.9   11.1              0   
#> 10   27.8     3.77   23.7     4.63   1.05  10.8              0   
#> # ℹ 70 more rows
源代碼:R/relu.R

相關用法


注:本文由純淨天空篩選整理自Max Kuhn等大神的英文原創作品 Apply (Smoothed) Rectified Linear Transformation。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。