当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


R textrecipes step_tokenize_sentencepiece 字符变量的句子标记化


step_tokenize_sentencepiece() 创建配方步骤的规范,该步骤将使用 SentencePiece 标记化将字符预测器转换为 token 变量。

用法

step_tokenize_sentencepiece(
  recipe,
  ...,
  role = NA,
  trained = FALSE,
  columns = NULL,
  vocabulary_size = 1000,
  options = list(),
  res = NULL,
  skip = FALSE,
  id = rand_id("tokenize_sentencepiece")
)

参数

recipe

一个recipe 对象。该步骤将添加到此配方的操作序列中。

...

一个或多个选择器函数用于选择受该步骤影响的变量。有关更多详细信息,请参阅recipes::selections()

role

由于没有创建新变量,因此此步骤未使用。

trained

指示预处理数量是否已估计的逻辑。

columns

将由 terms 参数(最终)填充的变量名称字符串。在 recipes::prep.recipe() 训练该步骤之前,这是 NULL

vocabulary_size

整数,表示最终词汇表中的标记数量。默认为 1000。强烈鼓励进行调整。

options

传递给分词器的选项列表。

res

一旦 prep.recipe() 训练了该预处理步骤,拟合的 sentencepiece::sentencepiece() 模型分词器将存储在此处。

skip

一个合乎逻辑的。当recipes::bake.recipe() 烘焙食谱时是否应该跳过此步骤?虽然所有操作都是在 recipes::prep.recipe() 运行时烘焙的,但某些操作可能无法对新数据进行(例如处理结果变量)。使用 skip = FALSE 时应小心。

id

该步骤特有的字符串,用于标识它。

recipe 的更新版本,其中新步骤添加到现有步骤(如果有)的序列中。

细节

如果遇到错误,可以通过设置 options = list(verbose = TRUE) 来调查编译代码的进度。这可以揭示句子是否正确运行。

整理

当您tidy()这一步时,会出现一个带有列terms(选择的选择器或变量)的tibble。

箱重

底层操作不允许使用案例权重。

也可以看看

step_untokenize() 取消标记化。

标记化的其他步骤:step_tokenize_bpe()step_tokenize_wordpiece()step_tokenize()

例子

library(recipes)
library(modeldata)
data(tate_text)

tate_rec <- recipe(~., data = tate_text) %>%
  step_tokenize_sentencepiece(medium)

tate_obj <- tate_rec %>%
  prep()

bake(tate_obj, new_data = NULL, medium) %>%
  slice(1:2)
#> # A tibble: 2 × 1
#>        medium
#>     <tknlist>
#> 1 [12 tokens]
#> 2  [3 tokens]

bake(tate_obj, new_data = NULL) %>%
  slice(2) %>%
  pull(medium)
#> <textrecipes_tokenlist[1]>
#> [1] [3 tokens]
#> # Unique Tokens: 3

tidy(tate_rec, number = 1)
#> # A tibble: 1 × 2
#>   terms  id                          
#>   <chr>  <chr>                       
#> 1 medium tokenize_sentencepiece_6eJd2
tidy(tate_obj, number = 1)
#> # A tibble: 1 × 2
#>   terms  id                          
#>   <chr>  <chr>                       
#> 1 medium tokenize_sentencepiece_6eJd2

相关用法


注:本文由纯净天空筛选整理自大神的英文原创作品 Sentencepiece Tokenization of Character Variables。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。