本文整理汇总了Python中scraper.Scraper.update_submission_content方法的典型用法代码示例。如果您正苦于以下问题:Python Scraper.update_submission_content方法的具体用法?Python Scraper.update_submission_content怎么用?Python Scraper.update_submission_content使用的例子?那么恭喜您, 这里精选的方法代码示例或许可以为您提供帮助。您也可以进一步了解该方法所在类scraper.Scraper
的用法示例。
在下文中一共展示了Scraper.update_submission_content方法的1个代码示例,这些例子默认根据受欢迎程度排序。您可以为喜欢或者感觉有用的代码点赞,您的评价将有助于系统推荐出更棒的Python代码示例。
示例1: Scraper
# 需要导入模块: from scraper import Scraper [as 别名]
# 或者: from scraper.Scraper import update_submission_content [as 别名]
help="Praw reddit agent name-can be anything",
default="Reddit topics by u/redditTopics")
argparser.add_argument("--db", help="mongo database name", default="reddit_topics")
argparser.add_argument("--host", help="mongodb host", default="blacksun.cs.mcgill.ca")
argparser.add_argument("--port", help="mongodb port", default=31050)
argparser.add_argument("--username", help="mongodb username")
argparser.add_argument("--password", help="mongodb password")
argparser.add_argument("--limit", help="max number of submissions to update at a time",
type=int, default=900)
params = argparser.parse_args()
username = params.username
password = params.password
host = params.host
port = params.port
db = params.db
reddit_agent = "Reddit topics by u/redditTopics"
limit = params.limit
if params.topics_file == "":
topics_file = None
else:
topics_file = params.topics_file
puller = Scraper(reddit_agent, username, password, host, port, db)
puller.update_submission_content(topics_file, limit)