借助NLTK nltk.TweetTokenizer()
方法,我们能够将单词流转换成小的小标记,以便我们可以借助nltk.TweetTokenizer()
方法。
用法:nltk.TweetTokenizer()
返回: Return the stream of token
范例1:
在此示例中,当我们以字符串形式传递音频流时,它将借助以下命令将长字符串转换为小标记nltk.TweetTokenizer()
方法。
# import TweetTokenizer() method from nltk
from nltk.tokenize import TweetTokenizer
# Create a reference variable for Class TweetTokenizer
tk = TweetTokenizer()
# Create a string input
gfg = "Geeks for Geeks"
# Use tokenize method
geek = tk.tokenize(gfg)
print(geek)
输出:
[‘Geeks’, ‘for’, ‘Geeks’]
范例2:
# import TweetTokenizer() method from nltk
from nltk.tokenize import TweetTokenizer
# Create a reference variable for Class TweetTokenizer
tk = TweetTokenizer()
# Create a string input
gfg = ":-) <> () {} []:-p"
# Use tokenize method
geek = tk.tokenize(gfg)
print(geek)
输出:
[‘:-)’, ”, ‘(‘, ‘)’, ‘{‘, ‘}’, ‘[‘, ‘]’, ‘:-p’]
相关用法
- Python nltk.tokenize.SExprTokenizer()用法及代码示例
- Python nltk.tokenize.LineTokenizer用法及代码示例
- Python NLTK nltk.tokenize.ConditionalFreqDist()用法及代码示例
- Python nltk.tokenize.SpaceTokenizer()用法及代码示例
- Python nltk.tokenize.TabTokenizer()用法及代码示例
- Python nltk.tokenize.StanfordTokenizer()用法及代码示例
- Python nltk.tokenizer.word_tokenize()用法及代码示例
- Python nltk.tokenize.mwe()用法及代码示例
- Python nltk.WhitespaceTokenizer用法及代码示例
- Python NLTK tokenize.regexp()用法及代码示例
- Python NLTK tokenize.WordPunctTokenizer()用法及代码示例
注:本文由纯净天空筛选整理自Jitender_1998大神的英文原创作品 Python NLTK | nltk.TweetTokenizer()。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。