當前位置: 首頁>>代碼示例>>Python>>正文


Python Spider.crawl方法代碼示例

本文整理匯總了Python中spider.Spider.crawl方法的典型用法代碼示例。如果您正苦於以下問題:Python Spider.crawl方法的具體用法?Python Spider.crawl怎麽用?Python Spider.crawl使用的例子?那麽, 這裏精選的方法代碼示例或許可以為您提供幫助。您也可以進一步了解該方法所在spider.Spider的用法示例。


在下文中一共展示了Spider.crawl方法的3個代碼示例,這些例子默認根據受歡迎程度排序。您可以為喜歡或者感覺有用的代碼點讚,您的評價將有助於係統推薦出更棒的Python代碼示例。

示例1: log_it

# 需要導入模塊: from spider import Spider [as 別名]
# 或者: from spider.Spider import crawl [as 別名]
log_it("TEMP DIR",temp_dire)

if os.path.exists(temp_dire):
    shutil.rmtree(temp_dire)
distutils.dir_util.copy_tree(src_dir,temp_dire)
owd = os.getcwd()

log_it("LOG","Crawling started")
spider = Spider(temp_dire)
log_it("LOG","Crawling done")
# spider.crawl()

log_it("LOG","Compileing pages started")
posts_data=[]
for post_folder in spider.crawl():
    config = json.load(open(os.path.join(post_folder,"__pub.lish")))
    t_date = time.strptime(config['date'],"%Y-%m-%d")
    posts_data.append({
        'title': config['name'].replace('-', ' '),
        'url'  : post_folder[len(temp_dire)+1:],
        'year' : time.strftime("%Y",t_date),
        'day'  : time.strftime("%d",t_date),
        'month': time.strftime("%b",t_date),
        'date' : t_date
    })
    compiler = Compilers[config['type']]
    owd = os.getcwd()
    os.chdir(post_folder)
    compiler.compile(config['file'])
    os.chdir(owd)
開發者ID:nithishdivakar,項目名稱:Sigen,代碼行數:32,代碼來源:main.py

示例2: startCrawl

# 需要導入模塊: from spider import Spider [as 別名]
# 或者: from spider.Spider import crawl [as 別名]
	def startCrawl(self):
		spider = Spider(self.userList)
		spider.crawl(self.hasProcessed)
開發者ID:srt4-archive,項目名稱:Qrawler,代碼行數:5,代碼來源:scheduler.py

示例3: Spider

# 需要導入模塊: from spider import Spider [as 別名]
# 或者: from spider.Spider import crawl [as 別名]
    conn = MySQLdb.connect(host=config.db_host,
                           user=config.db_user,
                           passwd=config.db_password,
                           db=config.db_database,
                           charset='utf8')
    cursor = conn.cursor()
    cursor.execute('select configValue from t_spider_config where configKey=%s',
                   (arg_config.get(sys.argv[1]),))
    config_values = [row[0] for row in cursor.fetchall()]
    if sys.argv[1] == 'paper':
        spider_paper = Spider('paper')
        for search_exp in config_values:
            reqs = parser.paper_page_parser(search_exp)[:500]
            for req in reqs:
                spider_paper.add_request(req)
        spider_paper.crawl()

    if sys.argv[1] == 'news':
        spider_news = Spider('news')
        for seed_url in config_values:
            spider_news.add_request(Request(arg=seed_url,
                                    parser=parser.news_parser))
        spider_news.crawl()

    if sys.argv[1] == 'patent':
        spider_patent = Spider('patent')
        for search_exp in config_values:
            spider_patent.add_request(Request(arg=search_exp,
                                      parser=parser.patent_parser))
        spider_patent.crawl()
開發者ID:C0reFast,項目名稱:intelliQ,代碼行數:32,代碼來源:run.py


注:本文中的spider.Spider.crawl方法示例由純淨天空整理自Github/MSDocs等開源代碼及文檔管理平台,相關代碼片段篩選自各路編程大神貢獻的開源項目,源碼版權歸原作者所有,傳播和使用請參考對應項目的License;未經允許,請勿轉載。