# 部署 Spider
> 译者:[OSGeo 中国](https://www.osgeo.cn/)
本节描述了部署 Scrapy Spider 以定期运行它们的不同选项。在您的本地机器中运行碎片 Spider 对于(早期)开发阶段非常方便,但是当您需要执行长时间运行的 Spider 或移动 Spider 以在生产中连续运行时,就不那么方便了。这就是部署 Scrapy Spider 的解决方案。
部署 Scrapy Spider 的常见选择是:
* [Scrapyd](#deploy-scrapyd) (开放源代码)
* [Scrapy Cloud](#deploy-scrapy-cloud) (基于云的)
## 部署到ScrapyD服务器
[Scrapyd](https://github.com/scrapy/scrapyd) 是一个开放源码的应用程序,可以运行碎片 Spider 。它为服务器提供了HTTP API,能够运行和监视碎片 Spider 。
要将spiders部署到scrapyD,可以使用由提供的scrapyD部署工具 [scrapyd-client](https://github.com/scrapy/scrapyd-client) 包。请参阅 [scrapyd-deploy documentation](https://scrapyd.readthedocs.io/en/latest/deploy.html) 更多信息。
ScrapyD由一些Scrapy开发人员维护。
## 部署到碎片云
[Scrapy Cloud](https://scrapinghub.com/scrapy-cloud) 是基于云的托管服务 [Scrapinghub](https://scrapinghub.com/) 斯普利背后的公司。
ScrapyCloud消除了设置和监视服务器的需要,并提供了一个很好的用户界面来管理spider和查看被刮走的项目、日志和统计信息。
要将 Spider 部署到碎片云,可以使用 [shub](https://doc.scrapinghub.com/shub.html) 命令行工具。请参阅 [Scrapy Cloud documentation](https://doc.scrapinghub.com/scrapy-cloud.html) 更多信息。
Scrapy Cloud与ScrapyD兼容,您可以根据需要在它们之间进行切换-配置从 `scrapy.cfg` 文件就像 `scrapyd-deploy` .
- 简介
- 第一步
- Scrapy at a glance
- 安装指南
- Scrapy 教程
- 实例
- 基本概念
- 命令行工具
- Spider
- 选择器
- 项目
- 项目加载器
- Scrapy shell
- 项目管道
- Feed 导出
- 请求和响应
- 链接提取器
- 设置
- 例外情况
- 内置服务
- Logging
- 统计数据集合
- 发送电子邮件
- 远程登录控制台
- Web服务
- 解决具体问题
- 常见问题
- 调试spiders
- Spider 合约
- 常用做法
- 通用爬虫
- 使用浏览器的开发人员工具进行抓取
- 调试内存泄漏
- 下载和处理文件和图像
- 部署 Spider
- AutoThrottle 扩展
- Benchmarking
- 作业:暂停和恢复爬行
- 延伸 Scrapy
- 体系结构概述
- 下载器中间件
- Spider 中间件
- 扩展
- 核心API
- 信号
- 条目导出器
- 其余所有
- 发行说明
- 为 Scrapy 贡献
- 版本控制和API稳定性