本人是搞Java、Android开发的,有编程基础。python是刚刚起步学习,在看完《Head first python》这本书后,一直想做一个项目练练手,思来想去不知道做python什么项目好,看网上大家都在玩爬虫。所以自己也花了一个晚上的时间写了个抓取“妹子图片”的爬虫,养眼的福利噢 O(∩_∩)O。大家需要注意博主用的是Python3.x 。在2.7上多线程的实现与3.x不同,所以需要自己调整代码。
先上截图,看看成果:
![](https://box.kancloud.cn/2016-05-29_574a961dc0526.jpg)
如何执行: 命令行窗口: python GetMezi.py 图片地址
即可。默认会在代码文件的同一级目录创建相册目录,并把图片放到对应的相册。
![](https://box.kancloud.cn/2016-05-29_574a961dd9b3a.jpg)
怎么样,看到这里,是不是也想自己动手打造一个爬图神器了。
那咱就言归正传,现在开始爬虫的设计:
python用到的库:BeautifulSoup、request
**一、找个图片网站,分析它页面上的HTML源代码,**提取HTML源代码中有用信息(图片链接、名称)****
****二、多线程并发下载图片到本地**
**
分析网站,我们浏览器F12,进入开发者模式,通过箭头查找模式找到图片显示区域的父容器:
这个标签内有好多个标签,li标签内部有标签,我们要提取的内容就是href的地址(即相册地址),以及相册描述
![](https://box.kancloud.cn/2016-05-29_574a961e094c0.jpg)
光有相册的信息还不够,我们还要去相册的网页看一下,把相册里面的所有图片链接给提取出来。
![](https://box.kancloud.cn/2016-05-29_574a961e2c5e8.jpg)
分析该页面,我们发现它的html源代码中有这个地方就是相册内图片的导航区域(即
上下图页面,这里每一个图片显示在一个对应的页面)。
代码中,我们要把相册的图片总数给拿到,即上图“51”,表示最后一张图片。
它的每一张图片对应的网页都是有规律的:
http://www.mzitu.com/62728
http://www.mzitu.com/62728/2
.........
http://www.mzitu.com/62728/51
发现了吗,我们只需要拿到总图片个数,然后代码中拼接一下,**生成51个网页路径即可**。
然后我们对分别对着51个页面解析html源代码,提取出**图片的路径**
代码我已经写好了,看官们可以访问代码仓:[https://github.com/JadenTseng/python-get-girl-image](https://github.com/JadenTseng/python-get-girl-image)
获取。
- Python爬虫入门
- (1):综述
- (2):爬虫基础了解
- (3):Urllib库的基本使用
- (4):Urllib库的高级用法
- (5):URLError异常处理
- (6):Cookie的使用
- (7):正则表达式
- (8):Beautiful Soup的用法
- Python爬虫进阶
- Python爬虫进阶一之爬虫框架概述
- Python爬虫进阶二之PySpider框架安装配置
- Python爬虫进阶三之Scrapy框架安装配置
- Python爬虫进阶四之PySpider的用法
- Python爬虫实战
- Python爬虫实战(1):爬取糗事百科段子
- Python爬虫实战(2):百度贴吧帖子
- Python爬虫实战(3):计算大学本学期绩点
- Python爬虫实战(4):模拟登录淘宝并获取所有订单
- Python爬虫实战(5):抓取淘宝MM照片
- Python爬虫实战(6):抓取爱问知识人问题并保存至数据库
- Python爬虫利器
- Python爬虫文章
- Python爬虫(一)--豆瓣电影抓站小结(成功抓取Top100电影)
- Python爬虫(二)--Coursera抓站小结
- Python爬虫(三)-Socket网络编程
- Python爬虫(四)--多线程
- Python爬虫(五)--多线程续(Queue)
- Python爬虫(六)--Scrapy框架学习
- Python爬虫(七)--Scrapy模拟登录
- Python笔记
- python 知乎爬虫
- Python 爬虫之——模拟登陆
- python的urllib2 模块解析
- 蜘蛛项目要用的数据库操作
- gzip 压缩格式的网站处理方法
- 通过浏览器的调试得出 headers转换成字典
- Python登录到weibo.com
- weibo v1.4.5 支持 RSA协议(模拟微博登录)
- 搭建Scrapy爬虫的开发环境
- 知乎精华回答的非专业大数据统计
- 基于PySpider的weibo.cn爬虫
- Python-实现批量抓取妹子图片
- Python库
- python数据库-mysql
- 图片处理库PIL
- Mac OS X安装 Scrapy、PIL、BeautifulSoup
- 正则表达式 re模块
- 邮件正则
- 正则匹配,但过滤某些字符串
- dict使用方法和快捷查找
- httplib2 库的使用