多应用+插件架构,代码干净,二开方便,首家独创一键云编译技术,文档视频完善,免费商用码云13.8K 广告
[TOC] ## Crawlab [Crawlab](https://github.com/crawlab-team/crawlab) 是支持任何语言和框架的分布式爬虫管理平台,理论上能运行所有类型的爬虫,包括 Colly 和 Scrapy。对 Crawlab 不了解的朋友可以查看 [Crawlab 官网](https://crawlab.cn) 以及 [Github 首页](https://github.com/crawlab-team/crawlab))。 首先利用 [Crawlab CLI](https://docs.crawlab.cn/zh/SDK/CLI.html) 将爬虫文件上传。 ``` ~/projects/tikazyq/colly-crawlers/baidu(master*) » crawlab upload go.mod go.sum baidu_spider.go uploaded successfully ``` ![](https://p1-juejin.byteimg.com/tos-cn-i-k3u1fbpfcp/aa7a97d264b243eea060ee6b10329ae1~tplv-k3u1fbpfcp-zoom-1.image) 等待一段时间,爬虫运行结束。我们可以在日志中看到打印出来的结果。 ![](https://p9-juejin.byteimg.com/tos-cn-i-k3u1fbpfcp/ba7986ad4e2e4bc3ada116fbad5ad5cd~tplv-k3u1fbpfcp-zoom-1.image) 并且,我们还可以在 “结果” 中查看抓取到的结果数据。这些结果是默认保存在 MongoDB 数据库里的。