- Scrapy 教程
- Scrapy - 主页
- Scrapy 的基本概念
- Scrapy - 概述
- Scrapy - 环境
- Scrapy - 命令行工具
- Scrapy - 爬虫
- Scrapy - 选择器
- Scrapy - 项目
- Scrapy - 项目加载器
- Scrapy - 外壳
- Scrapy - 项目管道
- Scrapy - 访问导出
- Scrapy - 请求和响应
- Scrapy - 链接提取器
- Scrapy - 设置
- Scrapy - 异常
- Scrapy 实时项目
- Scrapy - 创建一个项目
- Scrapy - 定义一个项目
- Scrapy - 第一个爬虫
- Scrapy - 爬行
- Scrapy - 提取项目
- Scrapy - 使用一个项目
- Scrapy - 跟踪链接
- Scrapy - 网络搜集的数据
- Scrapy 有用资源
- Scrapy - 快速指南
- Scrapy - 有用资源
- Scrapy - 讨论
Scrapy - 网络搜集的数据
描述
存储网络搜集数据的最佳方式是使用访问导出,它确保数据使用多种序列化格式正确地存储。JSON、JSON 序列、CSV、XML 是序列化格式中现成支持的格式。可以使用以下命令来存储数据 -
scrapy crawl dmoz -o data.json
此命令会创建一个 JSON 文件 **data.json**,其中包含网络搜集的 JSON 数据。此技术适用于少量数据。如果需要处理大量数据,可以使用项目管道。类似 data.json 文件,项目创建后将在 **tutorial/pipelines.py** 中设置一个保留文件。
广告