当前位置 : 主页 > 编程语言 > python >

Scrapy中的链接提取器和去重工具分析

来源:互联网 收集:自由互联 发布时间:2023-07-29
Scrapy是一个优秀的Python爬虫框架,它支持并发、分布式、异步等高级特性,可以帮助开发者更快、更稳定地爬取互联网上的数据。在Scrapy中,链接提取器和去重工具是非常重要的组件,

Scrapy是一个优秀的Python爬虫框架,它支持并发、分布式、异步等高级特性,可以帮助开发者更快、更稳定地爬取互联网上的数据。在Scrapy中,链接提取器和去重工具是非常重要的组件,用来辅助爬虫完成自动化的数据抓取和处理。本文将对Scrapy中的链接提取器和去重工具进行分析,探究它们是如何实现的,以及在Scrapy爬取过程中的应用。

一、链接提取器的作用及实现

链接提取器(Link Extractor)是Scrapy爬虫框架中的一个自动提取URL链接的工具。在一个完整的爬虫过程中,往往需要从网页中提取出一些URL链接,然后根据这些链接进一步进行访问和处理。链接提取器就是用来实现这个过程的,它可以根据一些规则从网页中自动提取出链接,并将这些链接保存到Scrapy的请求队列中等待后续处理。

在Scrapy中,链接提取器是通过正则表达式或XPath表达式来进行匹配的。Scrapy提供了两个链接提取器:基于正则表达式的LinkExtractor和基于XPath表达式的LxmlLinkExtractor。

  1. 基于正则表达式的LinkExtractor

基于正则表达式的LinkExtractor可以通过对网页中的URL进行正则匹配,自动提取出匹配成功的链接。例如,我们希望从一个网页中提取所有以 http://example.com/ 开头的链接,可以使用以下代码:

from scrapy.linkextractors import LinkExtractor

link_extractor = LinkExtractor(allow=r'^http://example.com/')
links = link_extractor.extract_links(response)
登录后复制

allow参数指定了一个正则表达式,用来匹配所有以 http://example.com/ 开头的链接。extract_links()方法可以提取出所有匹配成功的链接,保存在一个Link对象列表中。

Link对象是Scrapy框架中用来表示链接的数据结构,其中包含了链接的URL、标题、anchor文本和链接的类型等信息。通过这些对象,我们可以很方便地获取到需要的链接,并在Scrapy爬虫中进一步处理和访问。

  1. 基于XPath表达式的LxmlLinkExtractor

基于XPath表达式的LxmlLinkExtractor可以通过对网页中的HTML标签进行XPath表达式匹配,自动提取出匹配成功的链接。例如,我们希望从一个网页中提取所有class属性等于 "storylink" 的a链接,可以使用以下代码:

from scrapy.linkextractors import LxmlLinkExtractor

link_extractor = LxmlLinkExtractor(restrict_xpaths='//a[@class="storylink"]')
links = link_extractor.extract_links(response)
登录后复制

restrict_xpaths参数指定了一个XPath表达式,用来匹配所有class属性等于 "storylink" 的a标签。LxmlLinkExtractor的使用方式和LinkExtractor类似,可以将提取到的链接保存在一个Link对象列表中。需要注意的是,由于LxmlLinkExtractor使用了lxml库进行HTML解析,因此需要在项目的配置文件中添加以下代码:

# settings.py
DOWNLOAD_HANDLERS = {
    's3': None,
}
登录后复制

以上代码可以禁用Scrapy中默认的下载器,从而使用lxml库的HTML解析器。

二、去重工具的作用及实现

在进行Web爬取时,链接去重是非常重要的,因为在大多数情况下,同一个网页的不同链接是会重复出现的,如果不去重,就会造成重复爬取的问题,浪费带宽和时间。因此,在Scrapy中引入了去重工具(Duplicate Filter),用来对已经爬取过的链接进行标记和判断,避免重复访问。

去重工具的原理是通过将已经访问过的URL链接保存到一个数据结构中,然后对新的URL链接进行判断是否已经访问过,如果访问过,则将该URL链接丢弃,否则将其加入到爬虫的请求队列中。Scrapy中内置了很多种去重工具,包括基于内存的Set类去重器、基于磁盘的SQLite3去重器以及基于Redis的去重器等。不同的去重器有不同的适用场景,下面我们以Redis去重器为例进行说明。

  1. 基于Redis的去重器

Redis是一款高性能的NoSQL内存数据库,可以支持分布式、持久化、数据结构丰富等高级特性,非常适合用来实现Scrapy的去重工具。Scrapy中的Redis去重器可以通过对已经访问过的URL链接进行标记,避免重复访问。

Scrapy默认使用的是基于内存的Set类去重器,如果需要使用Redis去重器,可以在项目的配置文件中添加以下代码:

# settings.py
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
SCHEDULER = "scrapy_redis.scheduler.Scheduler"
SCHEDULER_PERSIST = True
REDIS_HOST = "localhost"
REDIS_PORT = 6379
登录后复制

其中,DUPEFILTER_CLASS参数指定了去重工具使用的去重策略,此处我们使用的是scrapy_redis.dupefilter.RFPDupeFilter,该去重器是基于Redis的set数据结构实现的。

SCHEDULER参数指定了调度器使用的调度策略,此处我们使用的是scrapy_redis.scheduler.Scheduler,该调度器是基于Redis的sorted set数据结构实现的。

SCHEDULER_PERSIST参数指定了调度器是否需要在Redis中持久化,即是否需要保存上一次爬取的状态,从而避免重新爬取已经爬取过的URL。

REDIS_HOST和REDIS_PORT参数分别指定了Redis数据库的IP地址和端口号,如果Redis数据库不在本地,则需要设置相应的IP地址。

使用Redis去重器之后,需要在爬虫中添加redis_key参数,用来指定Redis中保存URL链接的key名。例如:

# spider.py
class MySpider(scrapy.Spider):
    name = 'myspider'
    start_urls = ['http://example.com']

    custom_settings = {
        'REDIS_HOST': 'localhost',
        'REDIS_PORT': 6379,
        'DUPEFILTER_CLASS': 'scrapy_redis.dupefilter.RFPDupeFilter',
        'SCHEDULER': 'scrapy_redis.scheduler.Scheduler',
        'SCHEDULER_PERSIST': True,
        'SCHEDULER_QUEUE_CLASS': 'scrapy_redis.queue.SpiderPriorityQueue',
        'REDIS_URL': 'redis://user:pass@localhost:6379',
        'ITEM_PIPELINES': {
            'scrapy_redis.pipelines.RedisPipeline': 400,
        },
        'DOWNLOADER_MIDDLEWARES': {
            'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None,
            'scrapy_useragents.downloadermiddlewares.useragents.UserAgentsMiddleware': 500,
        },
        'FEED_URI': 'result.json',
        'FEED_FORMAT': 'json',
        'LOG_LEVEL': 'INFO',
        'SPIDER_MIDDLEWARES': {
            'scrapy.spidermiddlewares.httperror.HttpErrorMiddleware': 300,
        }
    }

    def __init__(self, *args, **kwargs):
        domain = kwargs.pop('domain', '')
        self.allowed_domains = filter(None, domain.split(','))
        self.redis_key = '%s:start_urls' % self.name
        super(MySpider, self).__init__(*args, **kwargs)

    def parse(self, response):
        pass
登录后复制

以上是一个简单的爬虫示例,redis_key参数指定了在Redis中保存URL链接的键名为myspider:start_urls。在parse()方法中,需要编写自己的网页解析代码,提取出需要的信息。

三、总结

链接提取器和去重工具是Scrapy爬虫框架中非常重要的组件,它们可以大大简化我们编写爬虫的工作,并提高爬虫的效率。在使用Scrapy爬虫时,我们可以根据自己的需求选择不同的链接提取器和去重工具,从而实现更为高效和灵活的爬虫功能。

网友评论