selenium 与 scrapy 实现动态页面

2024-12-24 08:56:00
admin
原创
155
摘要:问题描述:我正在尝试使用 scrapy 从网页上抓取产品信息。我要抓取的网页如下所示:从包含 10 种产品的 product_list 页面开始单击“下一步”按钮将加载接下来的 10 个产品(两个页面之间的 URL 不会改变)我使用 LinkExtractor 跟踪每个产品链接进入产品页面,并获取我需要的所有...

问题描述:

我正在尝试使用 scrapy 从网页上抓取产品信息。我要抓取的网页如下所示:

  • 从包含 10 种产品的 product_list 页面开始

  • 单击“下一步”按钮将加载接下来的 10 个产品(两个页面之间的 URL 不会改变)

  • 我使用 LinkExtractor 跟踪每个产品链接进入产品页面,并获取我需要的所有信息

我尝试复制 next-button-ajax-call,但无法正常工作,所以我尝试使用 selenium。我可以在单独的脚本中运行 selenium 的 webdriver,但我不知道如何与 scrapy 集成。我应该将 selenium 部分放在 scrapy spider 的哪里?

我的蜘蛛很标准,如下所示:

class ProductSpider(CrawlSpider):
    name = "product_spider"
    allowed_domains = ['example.com']
    start_urls = ['http://example.com/shanghai']
    rules = [
        Rule(SgmlLinkExtractor(restrict_xpaths='//div[@id="productList"]//dl[@class="t2"]//dt'), callback='parse_product'),
        ]

    def parse_product(self, response):
        self.log("parsing product %s" %response.url, level=INFO)
        hxs = HtmlXPathSelector(response)
        # actual data follows

任何想法都值得赞赏。谢谢!


解决方案 1:

这实际上取决于您需要如何抓取网站以及您想要获取什么数据。

Scrapy下面是一个使用+跟踪 eBay 分页的示例Selenium

import scrapy
from selenium import webdriver

class ProductSpider(scrapy.Spider):
    name = "product_spider"
    allowed_domains = ['ebay.com']
    start_urls = ['http://www.ebay.com/sch/i.html?_odkw=books&_osacat=0&_trksid=p2045573.m570.l1313.TR0.TRC0.Xpython&_nkw=python&_sacat=0&_from=R40']

    def __init__(self):
        self.driver = webdriver.Firefox()

    def parse(self, response):
        self.driver.get(response.url)

        while True:
            next = self.driver.find_element_by_xpath('//td[@class="pagn-next"]/a')

            try:
                next.click()

                # get the data and write it to scrapy items
            except:
                break

        self.driver.close()

以下是一些“硒蜘蛛”的例子:


除了使用Seleniumwith之外,还有另一种选择Scrapy。在某些情况下,使用ScrapyJS中间件就足以处理页面的动态部分。实际使用示例:

  • 使用 python-Scrapy 抓取动态内容

解决方案 2:

如果 (两个页面之间的 url 没有变化),那么您应该在 scrapy.Request() 中添加dont_filter=True,否则 scrapy 在处理第一页后会发现该 url 是重复的。

如果你需要使用 javascript 呈现页面,你应该使用scrapy-splash,你也可以检查这个scrapy 中间件,它可以使用 selenium 处理 javascript 页面,或者你可以通过启动任何无头浏览器来做到这一点

但更有效、更快捷的解决方案是检查您的浏览器,查看在提交表单或触发某个事件时发出了哪些请求。尝试模拟浏览器发送的相同请求。如果您可以正确复制请求,您将获得所需的数据。

以下是一个例子:

class ScrollScraper(Spider):
    name = "scrollingscraper"

    quote_url = "http://quotes.toscrape.com/api/quotes?page="
    start_urls = [quote_url + "1"]

    def parse(self, response):
        quote_item = QuoteItem()
        print response.body
        data = json.loads(response.body)
        for item in data.get('quotes', []):
            quote_item["author"] = item.get('author', {}).get('name')
            quote_item['quote'] = item.get('text')
            quote_item['tags'] = item.get('tags')
            yield quote_item

        if data['has_next']:
            next_page = data['page'] + 1
            yield Request(self.quote_url + str(next_page))

当每个页面的分页 URL 相同且使用 POST 请求时,您可以使用scrapy.FormRequest()而不是scrapy.Request(),两者相同,但 FormRequest向构造函数添加了一个新参数( formdata= )。

以下是该帖子中的另一个蜘蛛示例:

class SpiderClass(scrapy.Spider):
    # spider name and all
    name = 'ajax'
    page_incr = 1
    start_urls = ['http://www.pcguia.pt/category/reviews/#paginated=1']
    pagination_url = 'http://www.pcguia.pt/wp-content/themes/flavor/functions/ajax.php'

    def parse(self, response):

        sel = Selector(response)

        if self.page_incr > 1:
            json_data = json.loads(response.body)
            sel = Selector(text=json_data.get('content', ''))

        # your code here

        # pagination code starts here
        if sel.xpath('//div[@class="panel-wrapper"]'):
            self.page_incr += 1
            formdata = {
                'sorter': 'recent',
                'location': 'main loop',
                'loop': 'main loop',
                'action': 'sort',
                'view': 'grid',
                'columns': '3',
                'paginated': str(self.page_incr),
                'currentquery[category_name]': 'reviews'
            }
            yield FormRequest(url=self.pagination_url, formdata=formdata, callback=self.parse)
        else:
            return
相关推荐
  政府信创国产化的10大政策解读一、信创国产化的背景与意义信创国产化,即信息技术应用创新国产化,是当前中国信息技术领域的一个重要发展方向。其核心在于通过自主研发和创新,实现信息技术应用的自主可控,减少对外部技术的依赖,并规避潜在的技术制裁和风险。随着全球信息技术竞争的加剧,以及某些国家对中国在科技领域的打压,信创国产化显...
工程项目管理   1565  
  为什么项目管理通常仍然耗时且低效?您是否还在反复更新电子表格、淹没在便利贴中并参加每周更新会议?这确实是耗费时间和精力。借助软件工具的帮助,您可以一目了然地全面了解您的项目。如今,国内外有足够多优秀的项目管理软件可以帮助您掌控每个项目。什么是项目管理软件?项目管理软件是广泛行业用于项目规划、资源分配和调度的软件。它使项...
项目管理软件   1354  
  信创国产芯片作为信息技术创新的核心领域,对于推动国家自主可控生态建设具有至关重要的意义。在全球科技竞争日益激烈的背景下,实现信息技术的自主可控,摆脱对国外技术的依赖,已成为保障国家信息安全和产业可持续发展的关键。国产芯片作为信创产业的基石,其发展水平直接影响着整个信创生态的构建与完善。通过不断提升国产芯片的技术实力、产...
国产信创系统   21  
  信创生态建设旨在实现信息技术领域的自主创新和安全可控,涵盖了从硬件到软件的全产业链。随着数字化转型的加速,信创生态建设的重要性日益凸显,它不仅关乎国家的信息安全,更是推动产业升级和经济高质量发展的关键力量。然而,在推进信创生态建设的过程中,面临着诸多复杂且严峻的挑战,需要深入剖析并寻找切实可行的解决方案。技术创新难题技...
信创操作系统   27  
  信创产业作为国家信息技术创新发展的重要领域,对于保障国家信息安全、推动产业升级具有关键意义。而国产芯片作为信创产业的核心基石,其研发进展备受关注。在信创国产芯片的研发征程中,面临着诸多复杂且艰巨的难点,这些难点犹如一道道关卡,阻碍着国产芯片的快速发展。然而,科研人员和相关企业并未退缩,积极探索并提出了一系列切实可行的解...
国产化替代产品目录   28  
热门文章
项目管理软件有哪些?
云禅道AD
禅道项目管理软件

云端的项目管理软件

尊享禅道项目软件收费版功能

无需维护,随时随地协同办公

内置subversion和git源码管理

每天备份,随时转为私有部署

免费试用