当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


R textrecipes step_word_embeddings 令牌的预训练词嵌入


step_word_embeddings() 创建配方步骤的规范,通过聚合预训练嵌入中每个标记的向量,将 token 变量转换为 word-embedding 维度。

用法

step_word_embeddings(
  recipe,
  ...,
  role = "predictor",
  trained = FALSE,
  columns = NULL,
  embeddings,
  aggregation = c("sum", "mean", "min", "max"),
  aggregation_default = 0,
  prefix = "wordembed",
  keep_original_cols = FALSE,
  skip = FALSE,
  id = rand_id("word_embeddings")
)

参数

recipe

一个recipe 对象。该步骤将添加到此配方的操作序列中。

...

一个或多个选择器函数用于选择受该步骤影响的变量。有关更多详细信息,请参阅recipes::selections()

role

对于此步骤创建的模型项,应为它们分配什么分析角色?默认情况下,该函数假定由原始变量创建的新列将用作模型中的预测变量。

trained

指示预处理数量是否已估计的逻辑。

columns

将由 terms 参数(最终)填充的变量名称字符串。在 recipes::prep.recipe() 训练该步骤之前,这是 NULL

embeddings

预先训练的词嵌入的 tibble,例如由 textdata 包中的 embedding_glove 函数返回的词嵌入。第一列应包含标记,其他列应包含嵌入向量。

aggregation

给出要使用的聚合函数名称的字符。必须是 "sum"、"mean"、"min" 和 "max" 之一。默认为"sum"。

aggregation_default

表示在嵌入中匹配没有单词的情况的默认值的数字。默认为 0。

prefix

将作为结果新变量的前缀的字符串。请参阅下面的注释。

keep_original_cols

将原始变量保留在输出中的逻辑。默认为 FALSE

skip

一个合乎逻辑的。当recipes::bake.recipe() 烘焙食谱时是否应该跳过此步骤?虽然所有操作都是在 recipes::prep.recipe() 运行时烘焙的,但某些操作可能无法对新数据进行(例如处理结果变量)。使用 skip = FALSE 时应小心。

id

该步骤特有的字符串,用于标识它。

recipe 的更新版本,其中新步骤添加到现有步骤(如果有)的序列中。

细节

词嵌入将词(或其他标记)映射到高维特征空间。此函数将预先训练的词嵌入映射到数据中的标记上。

参数 embeddings 提供预训练向量。此 tibble 中存在的每个维度都会成为一个新的特征列,每一列使用 aggregation 参数中提供的函数在文本的每一行中聚合。

新组件的名称以 prefix 开头,然后是聚合函数的名称,然后是嵌入小标题中的变量的名称(通常类似于 "d7")。例如,使用默认的 "wordembedding" 前缀和 textdata 包中的 GloVe 嵌入(其中列名称为 d1d2 等),新列将为 wordembedding_d1wordembedding_d1 , ETC。

整理

当您tidy()此步骤时,会出现一个包含列terms(选择的选择器或变量)、embedding_rows(嵌入的行数)和aggregation(聚合方法)的小标题。

箱重

底层操作不允许使用案例权重。

也可以看看

step_tokenize() 将字符转换为tokens

来自标记的数字变量的其他步骤:step_lda()step_texthash()step_tfidf()step_tf()

例子

library(recipes)

embeddings <- tibble(
  tokens = c("the", "cat", "ran"),
  d1 = c(1, 0, 0),
  d2 = c(0, 1, 0),
  d3 = c(0, 0, 1)
)

sample_data <- tibble(
  text = c(
    "The.",
    "The cat.",
    "The cat ran."
  ),
  text_label = c("fragment", "fragment", "sentence")
)

rec <- recipe(text_label ~ ., data = sample_data) %>%
  step_tokenize(text) %>%
  step_word_embeddings(text, embeddings = embeddings)

obj <- rec %>%
  prep()

bake(obj, sample_data)
#> # A tibble: 3 × 4
#>   text_label wordembed_text_d1 wordembed_text_d2 wordembed_text_d3
#>   <fct>                  <dbl>             <dbl>             <dbl>
#> 1 fragment                   1                 0                 0
#> 2 fragment                   1                 1                 0
#> 3 sentence                   1                 1                 1

tidy(rec, number = 2)
#> # A tibble: 1 × 4
#>   terms embeddings_rows aggregation id                   
#>   <chr>           <int> <chr>       <chr>                
#> 1 text                3 sum         word_embeddings_HUbJD
tidy(obj, number = 2)
#> # A tibble: 1 × 4
#>   terms embeddings_rows aggregation id                   
#>   <chr>           <int> <chr>       <chr>                
#> 1 text                3 sum         word_embeddings_HUbJD

相关用法


注:本文由纯净天空筛选整理自大神的英文原创作品 Pretrained Word Embeddings of Tokens。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。