step_word_embeddings()
创建配方步骤的规范,通过聚合预训练嵌入中每个标记的向量,将 token
变量转换为 word-embedding 维度。
用法
step_word_embeddings(
recipe,
...,
role = "predictor",
trained = FALSE,
columns = NULL,
embeddings,
aggregation = c("sum", "mean", "min", "max"),
aggregation_default = 0,
prefix = "wordembed",
keep_original_cols = FALSE,
skip = FALSE,
id = rand_id("word_embeddings")
)
参数
- recipe
-
一个recipe 对象。该步骤将添加到此配方的操作序列中。
- ...
-
一个或多个选择器函数用于选择受该步骤影响的变量。有关更多详细信息,请参阅
recipes::selections()
。 - role
-
对于此步骤创建的模型项,应为它们分配什么分析角色?默认情况下,该函数假定由原始变量创建的新列将用作模型中的预测变量。
- trained
-
指示预处理数量是否已估计的逻辑。
- columns
-
将由
terms
参数(最终)填充的变量名称字符串。在recipes::prep.recipe()
训练该步骤之前,这是NULL
。 - embeddings
-
预先训练的词嵌入的 tibble,例如由 textdata 包中的 embedding_glove 函数返回的词嵌入。第一列应包含标记,其他列应包含嵌入向量。
- aggregation
-
给出要使用的聚合函数名称的字符。必须是 "sum"、"mean"、"min" 和 "max" 之一。默认为"sum"。
- aggregation_default
-
表示在嵌入中匹配没有单词的情况的默认值的数字。默认为 0。
- prefix
-
将作为结果新变量的前缀的字符串。请参阅下面的注释。
- keep_original_cols
-
将原始变量保留在输出中的逻辑。默认为
FALSE
。 - skip
-
一个合乎逻辑的。当
recipes::bake.recipe()
烘焙食谱时是否应该跳过此步骤?虽然所有操作都是在recipes::prep.recipe()
运行时烘焙的,但某些操作可能无法对新数据进行(例如处理结果变量)。使用skip = FALSE
时应小心。 - id
-
该步骤特有的字符串,用于标识它。
细节
词嵌入将词(或其他标记)映射到高维特征空间。此函数将预先训练的词嵌入映射到数据中的标记上。
参数 embeddings
提供预训练向量。此 tibble 中存在的每个维度都会成为一个新的特征列,每一列使用 aggregation
参数中提供的函数在文本的每一行中聚合。
新组件的名称以 prefix
开头,然后是聚合函数的名称,然后是嵌入小标题中的变量的名称(通常类似于 "d7")。例如,使用默认的 "wordembedding" 前缀和 textdata 包中的 GloVe 嵌入(其中列名称为 d1
、 d2
等),新列将为 wordembedding_d1
、 wordembedding_d1
, ETC。
整理
当您tidy()
此步骤时,会出现一个包含列terms
(选择的选择器或变量)、embedding_rows
(嵌入的行数)和aggregation
(聚合方法)的小标题。
也可以看看
step_tokenize()
将字符转换为tokens
来自标记的数字变量的其他步骤:step_lda()
、step_texthash()
、step_tfidf()
、step_tf()
例子
library(recipes)
embeddings <- tibble(
tokens = c("the", "cat", "ran"),
d1 = c(1, 0, 0),
d2 = c(0, 1, 0),
d3 = c(0, 0, 1)
)
sample_data <- tibble(
text = c(
"The.",
"The cat.",
"The cat ran."
),
text_label = c("fragment", "fragment", "sentence")
)
rec <- recipe(text_label ~ ., data = sample_data) %>%
step_tokenize(text) %>%
step_word_embeddings(text, embeddings = embeddings)
obj <- rec %>%
prep()
bake(obj, sample_data)
#> # A tibble: 3 × 4
#> text_label wordembed_text_d1 wordembed_text_d2 wordembed_text_d3
#> <fct> <dbl> <dbl> <dbl>
#> 1 fragment 1 0 0
#> 2 fragment 1 1 0
#> 3 sentence 1 1 1
tidy(rec, number = 2)
#> # A tibble: 1 × 4
#> terms embeddings_rows aggregation id
#> <chr> <int> <chr> <chr>
#> 1 text 3 sum word_embeddings_HUbJD
tidy(obj, number = 2)
#> # A tibble: 1 × 4
#> terms embeddings_rows aggregation id
#> <chr> <int> <chr> <chr>
#> 1 text 3 sum word_embeddings_HUbJD
相关用法
- R textrecipes step_lemma 标记变量的词形还原
- R textrecipes step_tokenize_wordpiece 字符变量的Wordpiece标记化
- R textrecipes step_tokenfilter 根据词频过滤标记
- R textrecipes step_text_normalization 字符变量的标准化
- R textrecipes step_clean_names 干净的变量名称
- R textrecipes step_tokenize_sentencepiece 字符变量的句子标记化
- R textrecipes step_tokenmerge 将多个令牌变量合并为一个
- R textrecipes step_tf 代币的使用频率
- R textrecipes step_tokenize 字符变量的标记化
- R textrecipes step_tfidf 词频-令牌的逆文档频率
- R textrecipes step_stem 令牌变量的词干
- R textrecipes step_textfeature 计算文本特征集
- R textrecipes step_texthash 代币的特征哈希
- R textrecipes step_ngram 从标记变量生成 n-gram
- R textrecipes step_stopwords 过滤标记变量的停用词
- R textrecipes step_pos_filter 令牌变量的语音过滤部分
- R textrecipes step_untokenize 令牌变量的取消令牌化
- R textrecipes step_lda 计算代币的LDA维度估计
- R textrecipes step_tokenize_bpe 字符变量的 BPE 标记化
- R textrecipes step_clean_levels 清晰的分类级别
- R textrecipes step_sequence_onehot 令牌的位置 One-Hot 编码
- R textrecipes step_dummy_hash 通过特征哈希的指示变量
- R textrecipes show_tokens 显示配方的令牌输出
- R textrecipes tokenlist 创建令牌对象
- R update_PACKAGES 更新现有的 PACKAGES 文件
注:本文由纯净天空筛选整理自等大神的英文原创作品 Pretrained Word Embeddings of Tokens。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。