step_tokenfilter()
创建配方步骤的规范,该步骤将转换 token
变量以根据频率进行过滤。
用法
step_tokenfilter(
recipe,
...,
role = NA,
trained = FALSE,
columns = NULL,
max_times = Inf,
min_times = 0,
percentage = FALSE,
max_tokens = 100,
filter_fun = NULL,
res = NULL,
skip = FALSE,
id = rand_id("tokenfilter")
)
参数
- recipe
-
一个recipe 对象。该步骤将添加到此配方的操作序列中。
- ...
-
一个或多个选择器函数用于选择受该步骤影响的变量。有关更多详细信息,请参阅
recipes::selections()
。 - role
-
由于没有创建新变量,因此此步骤未使用。
- trained
-
指示预处理数量是否已估计的逻辑。
- columns
-
将由
terms
参数(最终)填充的变量名称字符串。在recipes::prep.recipe()
训练该步骤之前,这是NULL
。 - max_times
-
一个整数。单词被删除之前可以出现的最大次数。
- min_times
-
一个整数。单词被删除之前可以出现的最少次数。
- percentage
-
一个合乎逻辑的。 max_times 和 min_times 应该解释为百分比而不是计数。
- max_tokens
-
一个整数。在 max_times 和 min_times 完成过滤后,仅保留顶部的 max_tokens 标记。默认为 100。
- filter_fun
-
一个函数。该函数应采用字符向量,并返回相同长度的逻辑向量。该函数将应用于数据集的每个观察。默认为
NULL
。如果使用此参数,所有其他参数将被忽略。 - res
-
一旦通过
prep.recipe()
训练此预处理步骤,将保留的单词将存储在此处。 - skip
-
一个合乎逻辑的。当
recipes::bake.recipe()
烘焙食谱时是否应该跳过此步骤?虽然所有操作都是在recipes::prep.recipe()
运行时烘焙的,但某些操作可能无法对新数据进行(例如处理结果变量)。使用skip = FALSE
时应小心。 - id
-
该步骤特有的字符串,用于标识它。
细节
此步骤允许您通过过滤语料库中出现的标记来限制您正在查看的标记。如果标记在数据中出现过多或过少,您可以将其排除。可以使用 max_times
和 min_times
将其指定为计数,也可以通过将 percentage
设置为 TRUE
将其指定为百分比。此外,还可以过滤以仅使用最常用的 max_tokens
标记。如果max_tokens
设置为Inf
,则将使用所有令牌。当标记是单词或三元组时,这通常会导致非常大的数据集。一个好的策略是从较低的令牌数量开始,然后根据您想要使用的 RAM 数量增加。
强烈建议在使用step_tf或step_tfidf之前进行过滤,以限制创建的变量数量。
整理
当您tidy()
此步骤时,会出现一个包含列terms
(选择的选择器或变量)和value
(唯一标记的数量)的小标题。
调整参数
这一步有3个调整参数:
-
max_times
:最大令牌频率(类型:整数,默认值:Inf) -
min_times
:最小令牌频率(类型:整数,默认值:0) -
max_tokens
: # 保留的令牌(类型:整数,默认值:100)
也可以看看
step_tokenize()
将字符转换为tokens
令牌修改的其他步骤: step_lemma()
、 step_ngram()
、 step_pos_filter()
、 step_stem()
、 step_stopwords()
、 step_tokenmerge()
例子
library(recipes)
library(modeldata)
data(tate_text)
tate_rec <- recipe(~., data = tate_text) %>%
step_tokenize(medium) %>%
step_tokenfilter(medium)
tate_obj <- tate_rec %>%
prep()
bake(tate_obj, new_data = NULL, medium) %>%
slice(1:2)
#> # A tibble: 2 × 1
#> medium
#> <tknlist>
#> 1 [8 tokens]
#> 2 [3 tokens]
bake(tate_obj, new_data = NULL) %>%
slice(2) %>%
pull(medium)
#> <textrecipes_tokenlist[1]>
#> [1] [3 tokens]
#> # Unique Tokens: 3
tidy(tate_rec, number = 2)
#> # A tibble: 1 × 3
#> terms value id
#> <chr> <int> <chr>
#> 1 medium NA tokenfilter_iSSZG
tidy(tate_obj, number = 2)
#> # A tibble: 1 × 3
#> terms value id
#> <chr> <int> <chr>
#> 1 medium 952 tokenfilter_iSSZG
相关用法
- R textrecipes step_tokenize_wordpiece 字符变量的Wordpiece标记化
- R textrecipes step_tokenize_sentencepiece 字符变量的句子标记化
- R textrecipes step_tokenmerge 将多个令牌变量合并为一个
- R textrecipes step_tokenize 字符变量的标记化
- R textrecipes step_tokenize_bpe 字符变量的 BPE 标记化
- R textrecipes step_text_normalization 字符变量的标准化
- R textrecipes step_tf 代币的使用频率
- R textrecipes step_tfidf 词频-令牌的逆文档频率
- R textrecipes step_textfeature 计算文本特征集
- R textrecipes step_texthash 代币的特征哈希
- R textrecipes step_lemma 标记变量的词形还原
- R textrecipes step_clean_names 干净的变量名称
- R textrecipes step_word_embeddings 令牌的预训练词嵌入
- R textrecipes step_stem 令牌变量的词干
- R textrecipes step_ngram 从标记变量生成 n-gram
- R textrecipes step_stopwords 过滤标记变量的停用词
- R textrecipes step_pos_filter 令牌变量的语音过滤部分
- R textrecipes step_untokenize 令牌变量的取消令牌化
- R textrecipes step_lda 计算代币的LDA维度估计
- R textrecipes step_clean_levels 清晰的分类级别
- R textrecipes step_sequence_onehot 令牌的位置 One-Hot 编码
- R textrecipes step_dummy_hash 通过特征哈希的指示变量
- R textrecipes show_tokens 显示配方的令牌输出
- R textrecipes tokenlist 创建令牌对象
- R update_PACKAGES 更新现有的 PACKAGES 文件
注:本文由纯净天空筛选整理自等大神的英文原创作品 Filter Tokens Based on Term Frequency。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。