当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python nltk.tokenize.TabTokenizer()用法及代码示例


借助nltk.tokenize.TabTokenizer()方法,我们可以使用它们之间的制表符从单词字符串中提取标记tokenize.TabTokenizer()方法。

用法: tokenize.TabTokenizer()
返回:Return the tokens of words.

范例1:
在这个例子中,我们可以通过使用tokenize.TabTokenizer()方法,我们能够从流中提取标记到单词之间并带有制表符的单词。


# import TabTokenizer() method from nltk 
from nltk.tokenize import TabTokenizer 
     
# Create a reference variable for Class TabTokenizer 
tk = TabTokenizer() 
     
# Create a string input 
gfg = "Geeksfor\tGeeks..\t.$$&* \nis\t for geeks"
     
# Use tokenize method 
geek = tk.tokenize(gfg) 
     
print(geek)

输出:

[‘Geeksfor’, ‘Geeks..’, ‘.$$&* \nis’, ‘ for geeks’]

范例2:

# import TabTokenizer() method from nltk 
from nltk.tokenize import TabTokenizer 
     
# Create a reference variable for Class TabTokenizer 
tk = TabTokenizer() 
     
# Create a string input 
gfg = "The price\t of burger \tin BurgerKing is Rs.36.\n"
     
# Use tokenize method 
geek = tk.tokenize(gfg) 
     
print(geek)

输出:

[‘The price’, ‘ of burger ‘, ‘in BurgerKing is Rs.36.\n’]



相关用法


注:本文由纯净天空筛选整理自Jitender_1998大神的英文原创作品 Python NLTK | nltk.tokenize.TabTokenizer()。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。