当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python NLTK tokenize.regexp()用法及代码示例


借助NLTK tokenize.regexp()模块,我们可以通过使用正则表达式从字符串中提取标记RegexpTokenizer()方法。

用法: tokenize.RegexpTokenizer()
返回: Return array of tokens using regular expression

范例1:
在这个例子中,我们使用RegexpTokenizer()借助正则表达式提取令牌流的方法。


# import RegexpTokenizer() method from nltk 
from nltk.tokenize import RegexpTokenizer 
    
# Create a reference variable for Class RegexpTokenizer 
tk = RegexpTokenizer('\s+', gaps = True) 
    
# Create a string input 
gfg = "I love Python"
    
# Use tokenize method 
geek = tk.tokenize(gfg) 
    
print(geek)

输出:

[‘I’, ‘love’, ‘Python’]

范例2:

# import RegexpTokenizer() method from nltk 
from nltk.tokenize import RegexpTokenizer 
    
# Create a reference variable for Class RegexpTokenizer 
tk = RegexpTokenizer('\s+', gaps = True) 
    
# Create a string input 
gfg = "Geeks for Geeks"
    
# Use tokenize method 
geek = tk.tokenize(gfg) 
    
print(geek)

输出:

[‘Geeks’, ‘for’, ‘Geeks’]



相关用法


注:本文由纯净天空筛选整理自Jitender_1998大神的英文原创作品 Python NLTK | tokenize.regexp()。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。