Scrapy是一个优秀的Python爬虫框架,它支持并发、分布式、异步等高级特性,可以帮助开发者更快、更稳定地爬取互联网上的数据。在Scrapy中,链接提取器和去重工具是非常重要的组件,用来辅助爬虫完成自动化的数据抓取和处理。本文将对Scrapy中的链接提取器和去重工具进行分析,探究它们是如何实现的,以及在Scrapy爬取过程中的应用。
一、链接提取器的作用及实现
链接提取器(Link Extractor)是Scrapy爬虫框架中的一个自动提取URL链接的工具。在一个完整的爬虫过程中,往往需要从网页中提取出一些URL链接,然后根据这些链接进一步进行访问和处理。链接提取器就是用来实现这个过程的,它可以根据一些规则从网页中自动提取出链接,并将这些链接保存到Scrapy的请求队列中等待后续处理。
在Scrapy中,链接提取器是通过正则表达式或XPath表达式来进行匹配的。Scrapy提供了两个链接提取器:基于正则表达式的LinkExtractor和基于XPath表达式的LxmlLinkExtractor。
- 基于正则表达式的LinkExtractor
基于正则表达式的LinkExtractor可以通过对网页中的URL进行正则匹配,自动提取出匹配成功的链接。例如,我们希望从一个网页中提取所有以 http://example.com/ 开头的链接,可以使用以下代码:
from scrapy.linkextractors import LinkExtractor link_extractor = LinkExtractor(allow=r'^http://example.com/') links = link_extractor.extract_links(response)登录后复制
allow参数指定了一个正则表达式,用来匹配所有以 http://example.com/ 开头的链接。extract_links()方法可以提取出所有匹配成功的链接,保存在一个Link对象列表中。
Link对象是Scrapy框架中用来表示链接的数据结构,其中包含了链接的URL、标题、anchor文本和链接的类型等信息。通过这些对象,我们可以很方便地获取到需要的链接,并在Scrapy爬虫中进一步处理和访问。
- 基于XPath表达式的LxmlLinkExtractor
基于XPath表达式的LxmlLinkExtractor可以通过对网页中的HTML标签进行XPath表达式匹配,自动提取出匹配成功的链接。例如,我们希望从一个网页中提取所有class属性等于 "storylink" 的a链接,可以使用以下代码:
from scrapy.linkextractors import LxmlLinkExtractor link_extractor = LxmlLinkExtractor(restrict_xpaths='//a[@class="storylink"]') links = link_extractor.extract_links(response)登录后复制
restrict_xpaths参数指定了一个XPath表达式,用来匹配所有class属性等于 "storylink" 的a标签。LxmlLinkExtractor的使用方式和LinkExtractor类似,可以将提取到的链接保存在一个Link对象列表中。需要注意的是,由于LxmlLinkExtractor使用了lxml库进行HTML解析,因此需要在项目的配置文件中添加以下代码:
# settings.py DOWNLOAD_HANDLERS = { 's3': None, }登录后复制
以上代码可以禁用Scrapy中默认的下载器,从而使用lxml库的HTML解析器。
二、去重工具的作用及实现
在进行Web爬取时,链接去重是非常重要的,因为在大多数情况下,同一个网页的不同链接是会重复出现的,如果不去重,就会造成重复爬取的问题,浪费带宽和时间。因此,在Scrapy中引入了去重工具(Duplicate Filter),用来对已经爬取过的链接进行标记和判断,避免重复访问。
去重工具的原理是通过将已经访问过的URL链接保存到一个数据结构中,然后对新的URL链接进行判断是否已经访问过,如果访问过,则将该URL链接丢弃,否则将其加入到爬虫的请求队列中。Scrapy中内置了很多种去重工具,包括基于内存的Set类去重器、基于磁盘的SQLite3去重器以及基于Redis的去重器等。不同的去重器有不同的适用场景,下面我们以Redis去重器为例进行说明。
- 基于Redis的去重器
Redis是一款高性能的NoSQL内存数据库,可以支持分布式、持久化、数据结构丰富等高级特性,非常适合用来实现Scrapy的去重工具。Scrapy中的Redis去重器可以通过对已经访问过的URL链接进行标记,避免重复访问。
Scrapy默认使用的是基于内存的Set类去重器,如果需要使用Redis去重器,可以在项目的配置文件中添加以下代码:
# settings.py DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter" SCHEDULER = "scrapy_redis.scheduler.Scheduler" SCHEDULER_PERSIST = True REDIS_HOST = "localhost" REDIS_PORT = 6379登录后复制
其中,DUPEFILTER_CLASS参数指定了去重工具使用的去重策略,此处我们使用的是scrapy_redis.dupefilter.RFPDupeFilter,该去重器是基于Redis的set数据结构实现的。
SCHEDULER参数指定了调度器使用的调度策略,此处我们使用的是scrapy_redis.scheduler.Scheduler,该调度器是基于Redis的sorted set数据结构实现的。
SCHEDULER_PERSIST参数指定了调度器是否需要在Redis中持久化,即是否需要保存上一次爬取的状态,从而避免重新爬取已经爬取过的URL。
REDIS_HOST和REDIS_PORT参数分别指定了Redis数据库的IP地址和端口号,如果Redis数据库不在本地,则需要设置相应的IP地址。
使用Redis去重器之后,需要在爬虫中添加redis_key参数,用来指定Redis中保存URL链接的key名。例如:
# spider.py class MySpider(scrapy.Spider): name = 'myspider' start_urls = ['http://example.com'] custom_settings = { 'REDIS_HOST': 'localhost', 'REDIS_PORT': 6379, 'DUPEFILTER_CLASS': 'scrapy_redis.dupefilter.RFPDupeFilter', 'SCHEDULER': 'scrapy_redis.scheduler.Scheduler', 'SCHEDULER_PERSIST': True, 'SCHEDULER_QUEUE_CLASS': 'scrapy_redis.queue.SpiderPriorityQueue', 'REDIS_URL': 'redis://user:pass@localhost:6379', 'ITEM_PIPELINES': { 'scrapy_redis.pipelines.RedisPipeline': 400, }, 'DOWNLOADER_MIDDLEWARES': { 'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None, 'scrapy_useragents.downloadermiddlewares.useragents.UserAgentsMiddleware': 500, }, 'FEED_URI': 'result.json', 'FEED_FORMAT': 'json', 'LOG_LEVEL': 'INFO', 'SPIDER_MIDDLEWARES': { 'scrapy.spidermiddlewares.httperror.HttpErrorMiddleware': 300, } } def __init__(self, *args, **kwargs): domain = kwargs.pop('domain', '') self.allowed_domains = filter(None, domain.split(',')) self.redis_key = '%s:start_urls' % self.name super(MySpider, self).__init__(*args, **kwargs) def parse(self, response): pass登录后复制
以上是一个简单的爬虫示例,redis_key参数指定了在Redis中保存URL链接的键名为myspider:start_urls。在parse()方法中,需要编写自己的网页解析代码,提取出需要的信息。
三、总结
链接提取器和去重工具是Scrapy爬虫框架中非常重要的组件,它们可以大大简化我们编写爬虫的工作,并提高爬虫的效率。在使用Scrapy爬虫时,我们可以根据自己的需求选择不同的链接提取器和去重工具,从而实现更为高效和灵活的爬虫功能。