• Scrapy爬虫框架分布式实现
    • 分布式爬虫原理
    • Scrapy分布式实现
    • Scrapyd分布式部署

    Scrapy爬虫框架分布式实现

    分布式爬虫原理

    Scrapy分布式实现

    1. 安装Scrapy-Redis。
    2. 配置Redis服务器。
    3. 修改配置文件。
      • SCHEDULER = ‘scrapy_redis.scheduler.Scheduler’
      • DUPEFILTER_CLASS = ‘scrapy_redis.dupefilter.RFPDupeFilter’
      • REDIS_HOST = ‘1.2.3.4’
      • REDIS_PORT = 6379
      • REDIS_PASSWORD = ‘1qaz2wsx’
      • SCHEDULER_QUEUE_CLASS = ‘scrapy_redis.queue.FifoQueue’
      • SCHEDULER_PERSIST = True(通过持久化支持接续爬取)
      • SCHEDULER_FLUSH_ON_START = True(每次启动时重新爬取)

    Scrapyd分布式部署

    1. 安装Scrapyd
    2. 修改配置文件
      • mkdir /etc/scrapyd
      • vim /etc/scrapyd/scrapyd.conf
    3. 安装Scrapyd-Client
      • 将项目打包成Egg文件。
      • 将打包的Egg文件通过addversion.json接口部署到Scrapyd上。