[TOC]
## 一 **线程池使用背景**
爬虫的本质就是client发请求批量获取server的响应数据,如果我们有多个url待爬取,只用一个线程且采用串行的方式执行,那只能等待爬取一个结束后才能继续下一个,效率会非常低。那么该如何提高爬取性能呢?
1. 多进程
2. 多线程
3. 进程池
4. **线程池**
5. 协程
其中最推荐初学者的就是线程池,原因如下
1. 多进程/线程的方式会频繁创建销毁,浪费性能
2. 线程比进程开销小,能使用线程池就不用进程池
3. 协程虽然高效,但是实现起来复杂
## 二 线程池的实现
```python
#1. 导入模块,re模块的作用是解析详情页中的js数据
import requests,re
from lxml import etree
from multiprocessing.dummy import Pool
# 2. 设置url,headers等
url='https://www.pearvideo.com/category_2'
headers={
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.132 Safari/537.36'
}
video_list=[]
# 3. 创建请求,页面数据
res=requests.get(url=url,headers=headers).text
tree=etree.HTML(res)
# 4. 利用xpath解析
li_list=tree.xpath('//*[@id="categoryList"]/li')
for li in li_list:
video_name=li.xpath('./div/a/div[2]/text()')[0]+'.mp4'
detal_url='https://www.pearvideo.com/'+li.xpath('./div/a/@href')[0]
detal_res=requests.get(url=detal_url,headers=headers).text
# 5. 详情页视频url在js中,不能用xpath和bs4解析,只能用正则
video_url=re.findall('srcUrl="(.*?)",vdoUrl',detal_res)[0]
dic={
'video_name':video_name,
'video_url':video_url
}
video_list.append(dic)
# 6. 创建解析下载视频的函数
def get_video(dic):
url=dic['video_url']
name=dic['video_name']
video_data=requests.get(url=url,headers=headers).content
print("开始下载视频:%s ....."%name)
with open(name,'wb') as f:
f.write(video_data)
# 7. 创建线程池并调用map方法
pools=Pool(4)
pools.map(get_video,video_list)
pools.close()
pools.join()
```
- 基础部分
- 基础知识
- 变量
- 数据类型
- 数字与布尔详解
- 列表详解list
- 字符串详解str
- 元组详解tup
- 字典详解dict
- 集合详解set
- 运算符
- 流程控制与循环
- 字符编码
- 编的小程序
- 三级菜单
- 斐波那契数列
- 汉诺塔
- 文件操作
- 函数相关
- 函数基础知识
- 函数进阶知识
- lambda与map-filter-reduce
- 装饰器知识
- 生成器和迭代器
- 琢磨的小技巧
- 通过operator函数将字符串转换回运算符
- 目录规范
- 异常处理
- 常用模块
- 模块和包相关概念
- 绝对导入&相对导入
- pip使用第三方源
- time&datetime模块
- random随机数模块
- os 系统交互模块
- sys系统模块
- shutil复制&打包模块
- json&pickle&shelve模块
- xml序列化模块
- configparser配置模块
- hashlib哈希模块
- subprocess命令模块
- 日志logging模块基础
- 日志logging模块进阶
- 日志重复输出问题
- re正则表达式模块
- struct字节处理模块
- abc抽象类与多态模块
- requests与urllib网络访问模块
- 参数控制模块1-optparse-过时
- 参数控制模块2-argparse
- pymysql数据库模块
- requests网络请求模块
- 面向对象
- 面向对象相关概念
- 类与对象基础操作
- 继承-派生和组合
- 抽象类与接口
- 多态与鸭子类型
- 封装-隐藏与扩展性
- 绑定方法与非绑定方法
- 反射-字符串映射属性
- 类相关内置方法
- 元类自定义及单例模式
- 面向对象的软件开发
- 网络-并发编程
- 网络编程SOCKET
- socket简介和入门
- socket代码实例
- 粘包及粘包解决办法
- 基于UDP协议的socket
- 文件传输程序实战
- socketserver并发模块
- 多进程multiprocessing模块
- 进程理论知识
- 多进程与守护进程
- 锁-信号量-事件
- 队列与生产消费模型
- 进程池Pool
- 多线程threading模块
- 进程理论和GIL锁
- 死锁与递归锁
- 多线程与守护线程
- 定时器-条件-队列
- 线程池与进程池(新方法)
- 协程与IO模型
- 协程理论知识
- gevent与greenlet模块
- 5种网络IO模型
- 非阻塞与多路复用IO实现
- 带着目标学python
- Pycharm基本使用
- 爬虫
- 案例-爬mzitu美女
- 案例-爬小说
- beautifulsoup解析模块
- etree中的xpath解析模块
- 反爬对抗-普通验证码
- 反爬对抗-session登录
- 反爬对抗-代理池
- 爬虫技巧-线程池
- 爬虫对抗-图片懒加载
- selenium浏览器模拟