本文整理汇总了Python中nltk.tokenize.RegexpTokenizer.lower方法的典型用法代码示例。如果您正苦于以下问题:Python RegexpTokenizer.lower方法的具体用法?Python RegexpTokenizer.lower怎么用?Python RegexpTokenizer.lower使用的例子?那么恭喜您, 这里精选的方法代码示例或许可以为您提供帮助。您也可以进一步了解该方法所在类nltk.tokenize.RegexpTokenizer
的用法示例。
在下文中一共展示了RegexpTokenizer.lower方法的1个代码示例,这些例子默认根据受欢迎程度排序。您可以为喜欢或者感觉有用的代码点赞,您的评价将有助于系统推荐出更棒的Python代码示例。
示例1: getAllCritics
# 需要导入模块: from nltk.tokenize import RegexpTokenizer [as 别名]
# 或者: from nltk.tokenize.RegexpTokenizer import lower [as 别名]
def getAllCritics(movieList):
reviews = np.array(map(lambda x: x["critics"], movieList))
reviews = np.concatenate(reviews)
tokenizeReview = []
for review in reviews:
s = review['review']
s = RegexpTokenizer(r'\w+').tokenize(s.lower())
s = map(lambda x: PorterStemmer().stem(x), s)
s = filter(lambda x: x not in stopwords.words('english'), s)
tokenizeReview.append((s, 'pos' if review["tomatometer"] == "fresh" else 'neg'))
return tokenizeReview