# 3.3 正则表达式
## 1.相关链接及说明
* 开源中国提供的正则表达式测试工具:[http://tool.oschina.net/regex/](http://tool.oschina.net/regex/)
匹配规则:
| 模式 | 描述 |
| :--- | :--- |
| `\w` | 匹配字母数字及下划线 |
| `\W` | 匹配非字母数字及下划线 |
| `\s` | 匹配任意空白字符,等价于 \[\t\n\r\f\]. |
| `\S` | 匹配任意非空字符 |
| `\d` | 匹配任意数字,等价于 \[0-9\] |
| `\D` | 匹配任意非数字 |
| `\A` | 匹配字符串开始 |
| `\Z` | 匹配字符串结束,如果是存在换行,只匹配到换行前的结束字符串 |
| `\z` | 匹配字符串结束 |
| `\G` | 匹配最后匹配完成的位置 |
| `\n` | 匹配一个换行符 |
| `\t` | 匹配一个制表符 |
| `^` | 匹配字符串的开头 |
| `$` | 匹配字符串的末尾 |
| `.` | 匹配任意字符,除了换行符,当 re.DOTALL 标记被指定时,则可以匹配包括换行符的任意字符 |
| `[...]` | 用来表示一组字符,单独列出:\[amk\] 匹配 'a','m' 或 'k' |
| `[^...]` | 不在 \[\] 中的字符:[abc](https://germey.gitbooks.io/python3webspider/content/3.3-正则表达式.html#fn_abc)匹配除了 a,b,c 之外的字符。 |
| `*` | 匹配 0 个或多个的表达式。 |
| `+` | 匹配 1 个或多个的表达式。 |
| `?` | 匹配 0 个或 1 个由前面的正则表达式定义的片段,非贪婪方式 |
| `{n}` | 精确匹配 n 个前面表达式。 |
| `{n, m}` | 匹配 n 到 m 次由前面的正则表达式定义的片段,贪婪方式 |
| a\|b | 匹配a或b |
| `( )` | 匹配括号内的表达式,也表示一个组 |
## 2.re库
Python 的 re 库提供了整个正则表达式的实现
## 3. match\(\) {#3-match}
语法:match\(pattern, string, flags=0\)
match\(\) 方法会尝试从字符串的起始位置匹配正则表达式,如果匹配,就返回匹配成功的结果,如果不匹配,那就返回 None
实例:
```text
import re
content = 'Hello 123 4567 World_This is a Regex Demo'
print(len(content))
# \s:空格
# \w:字母及数字、下划线
result = re.match('^Hello\s\d\d\d\s\d{4}\s\w{10}',content)
print(result)
print(result.group())
print(result.span())
```
运行结果:
```text
41
<_sre.SRE_Match object; span=(0, 25), match='Hello 123 4567 World_This'>
Hello 123 4567 World_This
(0, 25)
```
* group\(\)方法:输出匹配到的内容
* span\(\)方法:输出匹配到的范围
### 匹配目标 {#匹配目标}
match\(\) 方法可以得到匹配到的字符串内容,如何从字符串中提取一部分内容
在这里可以使用 \(\) 括号来将我们想提取的子字符串括起来,\(\) 实际上就是标记了一个子表达式的开始和结束位置,被标记的每个子表达式会依次对应每一个分组,我们可以调用 group\(\) 方法传入分组的索引即可获取提取的结果
实例:
```text
import re
content = 'Hello 1234567 World_This is a Regex Demo'
result = re.match('^Hello\s(\d+)\sWorld', content)
print(result)
print(result.group())
print(result.group(1))
print(result.span())
```
运行结果:
```text
<_sre.SRE_Match object; span=(0, 19), match='Hello 1234567 World'>
Hello 1234567 World
1234567
(0, 19)
```
group\(\) 会输出完整的匹配结果,group\(1\) 会输出第一个被 \(\) 包围的匹配结果,假如正则表达式后面还有 \(\) 包括的内容,那么我们可以依次用 group\(2\)、group\(3\) 等来依次获取
### 通用匹配 {#通用匹配}
.\(星\):匹配任意字符
实例:
```text
import re
content = 'Hello 123 4567 World_This is a Regex Demo'
result = re.match('^Hello.*Demo$', content)
print(result)
print(result.group())
print(result.span())
```
运行结果:
```text
<_sre.SRE_Match object; span=(0, 41), match='Hello 123 4567 World_This is a Regex Demo'>
Hello 123 4567 World_This is a Regex Demo
(0, 41)
```
### 贪婪与非贪婪 {#贪婪与非贪婪}
贪婪匹配下,.\* 会匹配尽可能多的字符
非贪婪匹配的写法是 .\*?,尽可能匹配少的字符
```text
import re
# 贪婪
content = 'Hello 123456789 World'
result = re.match('^Hello.*(\d+).*World$', content)
print(result)
print(result.group(1))
# 非贪婪
result = re.match('^Hello.*?(\d+).*World$', content)
print(result)
print(result.group(1))
```
```text
运行结果:
<_sre.SRE_Match object; span=(0, 21), match='Hello 123456789 World'>
9
<_sre.SRE_Match object; span=(0, 21), match='Hello 123456789 World'>
123456789
```
### 修饰符 {#修饰符}
修饰符解释
| 修饰符 | 描述 |
| :--- | :--- |
| re.I | 使匹配对大小写不敏感 |
| re.L | 做本地化识别(locale-aware)匹配 |
| re.M | 多行匹配,影响 ^ 和 $ |
| re.S | 使 . 匹配包括换行在内的所有字符 |
| re.U | 根据Unicode字符集解析字符。这个标志影响 \w, \W, \b, \B. |
| re.X | 该标志通过给予你更灵活的格式以便你将正则表达式写得更易于理解。 |
实例:
```text
import re
content = '''Hello 1234567 World_This
is a Regex Demo
'''
result = re.match('^He.*?(\d+).*?Demo$', content,re.S)
print(result.group(1))
```
运行结果:
```text
1234567
```
如果没有re.S的话,会报错,因为没有找到数据,不能进行分组
### 转义匹配 {#转义匹配}
. 可以用 . 来匹配
实例:
```text
import re
content = '(百度)www.baidu.com'
result = re.match('\(百度\)www\.baidu\.com', content)
print(result)
```
## 4. search\(\) {#4-search}
match\(\) 方法是从字符串的开头开始匹配,一旦开头不匹配,那么整个匹配就失败了
实例:
```text
import re
content = 'Extra stings Hello 1234567 World_This is a Regex Demo Extra stings'
result = re.match('Hello.*?(\d+).*?Demo', content)
print(result)
```
运行结果:
```text
None
```
这时应该使用search\(\),它在匹配时会扫描整个字符串,然后返回第一个成功匹配的结果
实例:
HTML文本
```text
html = '''<div id="songs-list">
<h2 class="title">经典老歌</h2>
<p class="introduction">
经典老歌列表
</p>
<ul id="list" class="list-group">
<li data-view="2">一路上有你</li>
<li data-view="7">
<a href="/2.mp3" singer="任贤齐">沧海一声笑</a>
</li>
<li data-view="4" class="active">
<a href="/3.mp3" singer="齐秦">往事随风</a>
</li>
<li data-view="6"><a href="/4.mp3" singer="beyond">光辉岁月</a></li>
<li data-view="5"><a href="/5.mp3" singer="陈慧琳">记事本</a></li>
<li data-view="5">
<a href="/6.mp3" singer="邓丽君">但愿人长久</a>
</li>
</ul>
</div>'''
```
尝试需要提取歌手名以及歌名,写出正则表达式:
```text
<li.*?a.*?singer="(.*?)">(.*?)</a>
```
代码如下:
```text
pattern = '<li.*?a.*?singer="(.*?)">(.*?)</a>'
# re.S:能让.匹配转行
result = re.search(pattern,html,re.S)
if result:
print(result.group(1),result.group(2))
```
## 5. findall\(\) {#5-findall}
search\(\) 方法的用法,它可以返回匹配正则表达式的第一个内容
如果想要获取匹配正则表达式的所有内容的就需要借助于 findall\(\) 方法
findall\(\) 方法会搜索整个字符串然后返回匹配正则表达式的所有内容
实例:
```text
pattern = '<li.*?href="(.*?)".*?singer="(.*?)">(.*?)</a>'
results = re.findall(pattern,html,re.S)
print(results)
print(type(results))
for result in results:
print(result)
print(result[0],result[1],result[2])
```
运行结果:
```text
[('/2.mp3', '任贤齐', '沧海一声笑'), ('/3.mp3', '齐秦', '往事随风'), ('/4.mp3', 'beyond', '光辉岁月'), ('/5.mp3', '陈慧琳', '记事本'), ('/6.mp3', '邓丽君', '但愿人长久')]
<class 'list'>
('/2.mp3', '任贤齐', '沧海一声笑')
/2.mp3 任贤齐 沧海一声笑
('/3.mp3', '齐秦', '往事随风')
/3.mp3 齐秦 往事随风
('/4.mp3', 'beyond', '光辉岁月')
/4.mp3 beyond 光辉岁月
('/5.mp3', '陈慧琳', '记事本')
/5.mp3 陈慧琳 记事本
('/6.mp3', '邓丽君', '但愿人长久')
/6.mp3 邓丽君 但愿人长久
```
## 6. sub\(\) {#6-sub}
sub\(\)方法可以替换文本中内容,替换成想要替换的新的内容
实例:
```text
import re
content = 'Hello123World'
pattern = '\d+'
print("原内容:"+content)
content = re.sub(pattern,'',content)
print("新内容:"+content)
```
运行结果:
```text
原内容:Hello123World
新内容:HelloWorld
```
第一个参数传入 \d+ 来匹配所有的数字,然后第二个参数是替换成的字符串,要去掉的话就可以赋值为空,第三个参数就是原字符串,得到的结果就是替换修改之后的内容
## 7. compile\(\) {#7-compile}
compile\(\) 给正则表达式做了一层封装,以便于在后面的匹配中复用
实例:
```text
import re
content1 = '2018-7-15 12:00'
content2 = '2018-7-17 12:55'
content3 = '2018-7-22 13:21'
pattern = re.compile('\d{2}:\d{2}')
content1 = re.sub(pattern,'',content1)
content2= re.sub(pattern,'',content2)
content3 = re.sub(pattern,'',content3)
print(content1,content2,content3,sep='\n')
```
运行结果:
```text
2018-7-15
2018-7-17
2018-7-22
```
- 介绍
- 1.开发环境配置
- 1.1 python3的安装
- 1.1.1 windows下的安装
- 1.1.2 Linux下的安装
- 1.1.3 Mac下的安装
- 1.2 请求库的安装
- 1.2.1 requests的安装
- 1.2.2 selenium的安装
- 1.2.3 ChromeDriver的安装
- 1.2.4 GeckoDriver 的安装
- 1.2.5 PhantomJS的安装
- 1.2.6 aiohttp的安装
- 1.3 解析库的安装
- 1.3.1 lxml的安装
- 1.3.2 Beautiful Soup的安装
- 1.3.3 pyquery的安装
- 1.3.4 tesserocr的安装
- 1.4 数据库的安装
- 1.4.1 MySQL的安装
- 1.4.2 MongoDB的安装
- 1.4.3 Redis的安装
- 1.5 存储库的安装
- 1.5.1 PyMySQL的安装
- 1.5.2 PyMongo的安装
- 1.5.3 redis-py的安装
- 1.5.4 RedisDump的安装
- 1.6 Web库的安装
- 1.6.1 Flask的安装
- 1.6.2 Tornado的安装
- 1.7 App爬取相关库的安装
- 1.7.1 Charles的安装
- 1.7.2 mitmproxy的安装
- 1.7.3 Appium的安装
- 1.8 爬虫框架的安装
- 1.8.1 pyspider的安装
- 1.8.2 Scrapy的安装
- 1.8.3 Scrapy-Splash的安装
- 1.8.4 ScrapyRedis的安装
- 1.9 布署相关库的安装
- 1.9.1 Docker的安装
- 1.9.2 Scrapyd的安装
- 1.9.3 ScrapydClient的安装
- 1.9.4 ScrapydAPI的安装
- 1.9.5 Scrapyrt的安装
- 1.9.6-Gerapy的安装
- 2.爬虫基础
- 2.1 HTTP 基本原理
- 2.1.1 URI和URL
- 2.1.2 超文本
- 2.1.3 HTTP和HTTPS
- 2.1.4 HTTP请求过程
- 2.1.5 请求
- 2.1.6 响应
- 2.2 网页基础
- 2.2.1网页的组成
- 2.2.2 网页的结构
- 2.2.3 节点树及节点间的关系
- 2.2.4 选择器
- 2.3 爬虫的基本原理
- 2.3.1 爬虫概述
- 2.3.2 能抓怎样的数据
- 2.3.3 javascript渲染的页面
- 2.4 会话和Cookies
- 2.4.1 静态网页和动态网页
- 2.4.2 无状态HTTP
- 2.4.3 常见误区
- 2.5 代理的基本原理
- 2.5.1 基本原理
- 2.5.2 代理的作用
- 2.5.3 爬虫代理
- 2.5.4 代理分类
- 2.5.5 常见代理设置
- 3.基本库使用
- 3.1 使用urllib
- 3.1.1 发送请求
- 3.1.2 处理异常
- 3.1.3 解析链接
- 3.1.4 分析Robots协议
- 3.2 使用requests
- 3.2.1 基本用法
- 3.2.2 高级用法
- 3.3 正则表达式
- 3.4 抓取猫眼电影排行
- 4.解析库的使用
- 4.1 使用xpath
- 4.2 使用Beautiful Soup
- 4.3 使用pyquery
- 5.数据存储
- 5.1 文件存储
- 5.1.1 TXT 文件存储
- 5.1.2 JSON文件存储
- 5.1.3 CSV文件存储
- 5.2 关系型数据库存储
- 5.2.1 MySQL的存储
- 5.3 非关系数据库存储
- 5.3.1 MongoDB存储
- 5.3.2 Redis存储
- 6.Ajax数据爬取
- 6.1 什么是Ajax
- 6.2 Ajax分析方法
- 6.3 Ajax结果提取
- 6.4 分析Ajax爬取今日头条街拍美图
- 7.动态渲染页面爬取
- 7.1 Selenium的使用
- 7.2 Splash的使用
- 7.3 Splash负载均衡配置
- 7.4 使用selenium爬取淘宝商品
- 8.验证码的识别
- 8.1 图形验证码的识别
- 8.2 极验滑动验证码的识别
- 8.3 点触验证码的识别
- 8.4微博宫格验证码的识别
- 9.代理的使用
- 9.1 代理的设置
- 9.2 代理池的维护
- 9.3 付费代理的使用
- 9.4 ADSL拨号代理
- 9.5 使用代理爬取微信公总号文章
- 10.模拟登录
- 10.1 模拟登陆并爬去GitHub
- 10.2 Cookies池的搭建
- 11.App的爬取
- 11.1 Charles的使用
- 11.2 mitmproxy的使用
- 11.3 mitmdump“得到”App电子书信息
- 11.4 Appium的基本使用
- 11.5 Appnium爬取微信朋友圈
- 11.6 Appium+mitmdump爬取京东商品
- 12.pyspider框架的使用
- 12.1 pyspider框架介绍
- 12.2 pyspider的基本使用
- 12.3 pyspider用法详解
- 13.Scrapy框架的使用
- 13.1 scrapy框架介绍
- 13.2 入门
- 13.3 selector的用法
- 13.4 spider的用法
- 13.5 Downloader Middleware的用法
- 13.6 Spider Middleware的用法
- 13.7 Item Pipeline的用法
- 13.8 Scrapy对接Selenium
- 13.9 Scrapy对接Splash
- 13.10 Scrapy通用爬虫
- 13.11 Scrapyrt的使用
- 13.12 Scrapy对接Docker
- 13.13 Scrapy爬取新浪微博
- 14.分布式爬虫
- 14.1 分布式爬虫原理
- 14.2 Scrapy-Redis源码解析
- 14.3 Scrapy分布式实现
- 14.4 Bloom Filter的对接
- 15.分布式爬虫的部署
- 15.1 Scrapyd分布式部署
- 15.2 Scrapyd-Client的使用
- 15.3 Scrapyd对接Docker
- 15.4 Scrapyd批量部署
- 15.5 Gerapy分布式管理
- 微信公总号文章实战
- 源码
- other