- Scrapy 教程
- Scrapy - 主页
- Scrapy 基本概念
- Scrapy - 概览
- Scrapy - 环境
- Scrapy - 命令行工具
- Scrapy - 爬虫
- Scrapy - 选择器
- Scrapy - 项目
- Scrapy - 项目加载器
- Scrapy - Shell
- Scrapy - 项目管道
- Scrapy - Feed 导出
- Scrapy - 请求和响应
- Scrapy - 链接提取器
- Scrapy - 设置
- Scrapy - 异常
- Scrapy 实时项目
- Scrapy - 创建项目
- Scrapy - 定义项
- Scrapy - 第一个爬虫
- Scrapy - 爬取
- Scrapy - 提取项目
- Scrapy - 使用项目
- Scrapy - 关注链接
- Scrapy - 爬取数据
- Scrapy 有用资源
- Scrapy - 快速指南
- Scrapy - 有用资源
- Scrapy - 讨论
Scrapy - 第一个爬虫
描述
Spider 是一个类,它定义了从中提取数据的初始 URL、如何关注分页链接以及如何提取和解析定义在items.py中的字段。Scrapy 提供不同类型的蜘蛛,每种蜘蛛都有特定的目的。
在 first_scrapy/spiders 目录下创建一个名为"first_spider.py"的文件,在其中我们可以告诉 Scrapy 如何找到我们正在寻找的确切数据。为此,你必须定义一些属性 -
名称 - 它定义了蜘蛛的唯一名称。
允许的域 - 它包含要供蜘蛛爬取的基本 URL。
起始 URL - 从其中蜘蛛开始爬取的 URL 列表。
parse() - 它是一种提取和解析爬取数据的提取方法。
以下代码展示了蜘蛛代码的样子 -
import scrapy class firstSpider(scrapy.Spider): name = "first" allowed_domains = ["dmoz.org"] start_urls = [ "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/", "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/" ] def parse(self, response): filename = response.url.split("/")[-2] + '.html' with open(filename, 'wb') as f: f.write(response.body)
广告