当前位置: 首页>>代码示例>>Python>>正文


Python Scraper.pega_lista方法代码示例

本文整理汇总了Python中scraper.Scraper.pega_lista方法的典型用法代码示例。如果您正苦于以下问题:Python Scraper.pega_lista方法的具体用法?Python Scraper.pega_lista怎么用?Python Scraper.pega_lista使用的例子?那么恭喜您, 这里精选的方法代码示例或许可以为您提供帮助。您也可以进一步了解该方法所在scraper.Scraper的用法示例。


在下文中一共展示了Scraper.pega_lista方法的3个代码示例,这些例子默认根据受欢迎程度排序。您可以为喜欢或者感觉有用的代码点赞,您的评价将有助于系统推荐出更棒的Python代码示例。

示例1: pesquisa

# 需要导入模块: from scraper import Scraper [as 别名]
# 或者: from scraper.Scraper import pega_lista [as 别名]
def pesquisa(end):
    shop = "www.shopcar.com.br/"
    endereco_xpath = "//*[contains(@class, 'bt-opcoes')]//a[1]/@href"
    numPag = 1
    scraper = Scraper()
    while True:
        pagina_busca = end
        pagina_busca = pagina_busca.replace("pagina=", "pagina="+str(numPag))
        resultados = scraper.pega_lista(pagina_busca, endereco_xpath)
        if len(resultados) != 0 :
            print("_________----------Página " + str(numPag)+"----------____________")
            for resultado in resultados:
                url = shop+resultado.strip()
                salva(url)
        else:
            print("Acabou os veiculos desta categoria.")
            break
        numPag = numPag + 1
开发者ID:rodrigoMrtz,项目名称:ProjetoShopcar,代码行数:20,代码来源:VeiculoController.py

示例2: salva

# 需要导入模块: from scraper import Scraper [as 别名]
# 或者: from scraper.Scraper import pega_lista [as 别名]
def salva(url_veiculo):
    xpath_categoria = "//*[contains(@class, 'categoria')]/a//text()"
    xpath_marca = "//*[contains(@class, 'marca')]/text()"
    xpath_modelo = "//*[contains(@class, 'modelo')]/text()"
    http = urllib3.PoolManager()
    xpath_especs = "//*[@id=\"dados-veiculo\"]/ul[1]/li/span/text()"
    xpath_preco = "//*[@id=\"dados-veiculo\"]/div/span/text()"
    xpath_opcionais = "//*[contains(@class, 'opcionais')]//li/text()"
    scraper = Scraper()
    print("Xpath Categoria...")
    resultados = scraper.pega_lista(url_veiculo, xpath_categoria)
    v = Veiculo
    o = Opcionais
    if(len(resultados) > 0):#se nao possuir categoria
        v.categoria = resultados[0]
    else:
        v.categoria = "Sem Categoria"
    print("Xpath Marca...")
    resultados = scraper.pega_lista(url_veiculo, xpath_marca)
    try:
        m = Marca.objects.create(nome=resultados[0])
        m.save()
    except:
        m = Marca.objects.get(nome=resultados[0])
    print("Xpath modelo...")
    resultados = scraper.pega_lista(url_veiculo, xpath_modelo)
    v.modelo = resultados[0]
    print("Xpath Especificos...")
    resultados = scraper.pega_lista(url_veiculo, xpath_especs)
    if (len(resultados) > 3):
        v.ano_modelo = formata_ano_modelo(resultados[0])
        v.cor = resultados[1]
        v.km = resultados[2]
        v.combustivel = resultados[3]
    elif (len(resultados) == 3):
        v.ano_modelo = formata_ano_modelo(resultados[0])
        v.cor = resultados[1]
        v.km = -1
        v.combustivel = resultados[2]
    print("Xpath Preco...")
    resultados = scraper.pega_lista(url_veiculo, xpath_preco)
    r = resultados[0].replace("R$ ", "")
    r = r.replace(",00", "")
    print("preco: ", r)
    if "Consulte" in r:
        r = None
        v.preco = r
    else:
        v.preco = r
    marca = Marca.objects.get(nome=m.nome)
    print("Xpath opcionais...")
    resultados = scraper.pega_lista(url_veiculo, xpath_opcionais)
    for resultado in resultados:
        resultado = resultado.encode('utf-8')
        try:
            o = Opcionais.objects.create(nome=resultado)
            o.save()
        except:
            print("")
    v_hash = marca.nome + v.categoria + v.modelo + v.cor + v.ano_modelo + str(v.km) + v.combustivel + str(v.preco) + ''.join(resultados)
    v_hash = hashlib.md5(v_hash.encode('utf-8'))
    obj_hash = str(v_hash.hexdigest())
    try:
        v = Veiculo.objects.create(vei_pk=obj_hash, marca=marca, categoria=v.categoria, modelo=v.modelo, cor=v.cor, ano_modelo=v.ano_modelo, km=v.km, combustivel=v.combustivel, preco=v.preco)
        v.save()
    except:
        print("Veiculo ja existente no BD")
    for resultado in resultados:
        try:
            vop = VeiculoOpcionais.objects.create(veiculo=v, opcionais=Opcionais.objects.get(nome=resultado))
            vop.save()
        except:
            pass
    print("Terminado.")
开发者ID:rodrigoMrtz,项目名称:ProjetoShopcar,代码行数:76,代码来源:VeiculoController.py

示例3: Scraper

# 需要导入模块: from scraper import Scraper [as 别名]
# 或者: from scraper.Scraper import pega_lista [as 别名]
# -*- coding: utf-8 -*-
from scraper import Scraper
import urllib3, lxml.html
from models import Veiculo, Marca, Opcionais, VeiculoOpcionais

xpath_categoria = "//*[contains(@class, 'categoria')]/a//text()"
xpath_marca = "//*[contains(@class, 'marca')]/text()"
xpath_modelo = "//*[contains(@class, 'modelo')]/text()"
url_carro = "http://www.shopcar.com.br/veiculos/ford/fusion-sel-2-5-16v-vvt/08-09/630244"
http = urllib3.PoolManager()
xpath_especs = "//*[@id=\"dados-veiculo\"]/ul[1]/li/span/text()"
xpath_preco = "//*[@id=\"dados-veiculo\"]/div/span/text()"
xpath_opcionais = "//*[contains(@class, 'opcionais')]//li/text()"
scraper = Scraper()
print("Xpath Categoria...")
resultados = scraper.pega_lista(url_carro, xpath_categoria)
v = Veiculo
o = Opcionais
if(len(resultados) > 0):#se nao possuir categoria
    v.categoria = resultados[0]
else:
    v.categoria = "Sem Categoria"
print("Xpath Marca...")
resultados = scraper.pega_lista(url_carro, xpath_marca)
try:
    m = Marca.objects.create(nome=resultados[0])
    m.save()
except:
    print("Nome ja existe no banco carai")
    m = Marca.objects.get(nome=resultados[0])
print("Xpath modelo...")
开发者ID:rodrigoMrtz,项目名称:HerokuShopcar,代码行数:33,代码来源:teste.py


注:本文中的scraper.Scraper.pega_lista方法示例由纯净天空整理自Github/MSDocs等开源代码及文档管理平台,相关代码片段筛选自各路编程大神贡献的开源项目,源码版权归原作者所有,传播和使用请参考对应项目的License;未经允许,请勿转载。