## 1. 通常防止爬虫被反主要有以下几个策略:
> 1. 置User-Agent(随机切换User-Agent,模拟不同用户的浏览器信息)
> 2. ookies(也就是不启用cookies middleware,不向Server发送cookies,有些网站通过cookie的使用发现爬虫行为)
> 3. 过COOKIES_ENABLED 控制 CookiesMiddleware 开启或关闭
> 4. 迟下载(防止访问过于频繁,设置为 2秒 或更高)
> 5. gle Cache 和 Baidu Cache:如果可能的话,使用谷歌/百度等搜索引擎服务器页面缓存获取页面数据。
> 6. P地址池:VPN和代理IP,现在大部分网站都是根据IP来ban的。
> 7. Crawlera(专用于爬虫的代理组件),正确配置和设置下载中间件后,项目所有的request都是通过crawlera发出。
>
## 2. 爬虫遇到的问题
### 2.1 scrapy抓取到的html和浏览器的不一致
用xpath在浏览器上可以卡取到数据,但是程序就不行,弄了半天发现浏览器调试下的HTML和scrapy抓取到的不一样
`print(response.text)`打印一下获取到的数据,和浏览器不一样,改xpath匹配规则
### 2.2 获取多个标签的文字
tr标签及其子标签中的文字
~~~
content = response.xpath("//div[@class='pcb']//div[@class='t_fsz']/table[1]//tr")[0].xpath('string(.)').extract()[0]
~~~
例:获取table标签下的所有文字
![](https://box.kancloud.cn/c10a5c1fba0b7a35f249bb4643059da6_1634x769.png)
~~~
info_table = response.xpath("//table[@class='specificationBox']")
if len(info_table)>=1 :
instructions = info_table[0].xpath('string(.)').extract()[0]
~~~
### 2.3 cookie
有的网站,会把网页重定向,此时应该让我们的爬虫跟着重定向,做以下设置
~~~
HTTPERROR_ALLOWED_CODES = [301]
REDIRECT_ENABLED = True
~~~
### 2.4 js渲染
![](https://box.kancloud.cn/3a3ab484a9d919cefed75e6e91d3fddc_484x346.png)
如上面的商品价格,没有浏览器帮我们进行技术渲染,scrapy是得不到结果的,所以选择Selenium+PhantomJS(模拟无界面浏览器)
1. 自定义下载中间件,处理request
~~~
class PhantomJSMiddleware(object):
def __init__(self,crawler ):
self.webDriver = webdriver.PhantomJS()
@classmethod
def from_crawler(cls, crawler):
return cls(crawler)
def process_request(self, request, spider):
if 'product' in request.url:
self.webDriver.get(request.url)
content = self.webDriver.page_source.encode('utf-8')
print("===========使用selenium下载!!!!!!!!!")
# 返回response,这样框架就不会去重复的下载了
return HtmlResponse(request.url, encoding='utf-8', body=content, request=request)
~~~
2. 设置settings.py文件
把自定义的下载中间件加入
~~~
DOWNLOADER_MIDDLEWARES = {
'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None,
'scrapyredis.middlewares.RandomAgentMiddleWare': 543,
'scrapyredis.middlewares.PhantomJSMiddleware': 545,
}
~~~
### 2.5 使用selenium+PhantomJS(设置请求头)
其他组件设置的UserAgent,不会设置在PhantomJS发起的请求中,所以要单独设置请求头,否则就像下边这样爬虫被识别
![](https://box.kancloud.cn/1f679ed88d5d7c613b1f61080c299544_1685x595.png)
~~~
class PhantomJSMiddleware(object):
def __init__(self,crawler):
self.ua = UserAgent()
# 取到其定义的获取Useragent的方法
self.ua_type = crawler.settings.get("RANDOM_UA_TYPE", "random")
self.fdfs = FDFSClient()
crawler.spider.logger.info("=========PhantomJS浏览器初始化!!!")
def getAgent():
userAgent = getattr(self.ua, self.ua_type)
crawler.spider.logger.info("=====设置代理userAgent:{0}".format(userAgent))
return userAgent
dcap = dict(DesiredCapabilities.PHANTOMJS)
dcap["phantomjs.page.settings.userAgent"] = (getAgent())
self.webDriver = webdriver.PhantomJS(desired_capabilities=dcap)
@classmethod
def from_crawler(cls, crawler):
return cls(crawler)
def process_request(self, request, spider):
# 详细处理页
if len(spider.detailList)>=1:
for detail in spider.detailList:
if detail in request.url:
spider.logger.info("===========使用selenium下载")
self.webDriver.get(request.url)
content = self.webDriver.page_source.encode('utf-8')
# spider.logger.info("===========保存快照")
# screenshotData = self.webDriver.get_screenshot_as_png()
# screenshotUri = self.fdfs.save(screenshotData)
# request.meta['screenshot'] = screenshotUri
return HtmlResponse(request.url, encoding='utf-8', body=content, request=request)
def process_response(self, request, response, spider):
# print(response.text)
return response
~~~
解决
![](https://box.kancloud.cn/1b13f15960869e8051841059c5618e5d_1866x639.png)
- Docker
- 什么是docker
- Docker安装、组件启动
- docker网络
- docker命令
- docker swarm
- dockerfile
- mesos
- 运维
- Linux
- Linux基础
- Linux常用命令_1
- Linux常用命令_2
- ip命令
- 什么是Linux
- SELinux
- Linux GCC编译警告:Clock skew detected. 错误解决办法
- 文件描述符
- find
- 资源统计
- LVM
- Linux相关配置
- 服务自启动
- 服务器安全
- 字符集
- shell脚本
- shell命令
- 实用脚本
- shell 数组
- 循环与判断
- 系统级别进程开启和停止
- 函数
- java调用shell脚本
- 发送邮件
- Linux网络配置
- Ubuntu
- Ubuntu发送邮件
- 更换apt-get源
- centos
- 防火墙
- 虚拟机下配置网络
- yum重新安装
- 安装mysql5.7
- 配置本地yum源
- 安装telnet
- 忘记root密码
- rsync+ crontab
- Zabbix
- Zabbix监控
- Zabbix安装
- 自动报警
- 自动发现主机
- 监控MySQL
- 安装PHP常见错误
- 基于nginx安装zabbix
- 监控Tomcat
- 监控redis
- web监控
- 监控进程和端口号
- zabbix自定义监控
- 触发器函数
- zabbix监控mysql主从同步状态
- Jenkins
- 安装Jenkins
- jenkins+svn+maven
- jenkins执行shell脚本
- 参数化构建
- maven区分环境打包
- jenkins使用注意事项
- nginx
- nginx认证功能
- ubuntu下编译安装Nginx
- 编译安装
- Nginx搭建本地yum源
- 文件共享
- Haproxy
- 初识Haproxy
- haproxy安装
- haproxy配置
- virtualbox
- virtualbox 复制新的虚拟机
- ubuntu下vitrualbox安装redhat
- centos配置双网卡
- 配置存储
- Windows
- Windows安装curl
- VMware vSphere
- 磁盘管理
- 增加磁盘
- gitlab
- 安装
- tomcat
- Squid
- bigdata
- FastDFS
- FastFDS基础
- FastFDS安装及简单实用
- api介绍
- 数据存储
- FastDFS防盗链
- python脚本
- ELK
- logstash
- 安装使用
- kibana
- 安准配置
- elasticsearch
- elasticsearch基础_1
- elasticsearch基础_2
- 安装
- 操作
- java api
- 中文分词器
- term vector
- 并发控制
- 对text字段排序
- 倒排和正排索引
- 自定义分词器
- 自定义dynamic策略
- 进阶练习
- 共享锁和排它锁
- nested object
- 父子关系模型
- 高亮
- 搜索提示
- Redis
- redis部署
- redis基础
- redis运维
- redis-cluster的使用
- redis哨兵
- redis脚本备份还原
- rabbitMQ
- rabbitMQ安装使用
- rpc
- RocketMQ
- 架构概念
- 安装
- 实例
- 好文引用
- 知乎
- ACK
- postgresql
- 存储过程
- 编程语言
- 计算机网络
- 基础_01
- tcp/ip
- http转https
- Let's Encrypt免费ssl证书(基于haproxy负载)
- what's the http?
- 网关
- 网络IO
- http
- 无状态网络协议
- Python
- python基础
- 基础数据类型
- String
- List
- 遍历
- Python基础_01
- python基础_02
- python基础03
- python基础_04
- python基础_05
- 函数
- 网络编程
- 系统编程
- 类
- Python正则表达式
- pymysql
- java调用python脚本
- python操作fastdfs
- 模块导入和sys.path
- 编码
- 安装pip
- python进阶
- python之setup.py构建工具
- 模块动态导入
- 内置函数
- 内置变量
- path
- python模块
- 内置模块_01
- 内置模块_02
- log模块
- collections
- Twisted
- Twisted基础
- 异步编程初探与reactor模式
- yield-inlineCallbacks
- 系统编程
- 爬虫
- urllib
- xpath
- scrapy
- 爬虫基础
- 爬虫种类
- 入门基础
- Rules
- 反反爬虫策略
- 模拟登陆
- problem
- 分布式爬虫
- 快代理整站爬取
- 与es整合
- 爬取APP数据
- 爬虫部署
- collection for ban of web
- crawlstyle
- API
- 多次请求
- 向调度器发送请求
- 源码学习
- LinkExtractor源码分析
- 构建工具-setup.py
- selenium
- 基础01
- 与scrapy整合
- Django
- Django开发入门
- Django与MySQL
- java
- 设计模式
- 单例模式
- 工厂模式
- java基础
- java位移
- java反射
- base64
- java内部类
- java高级
- 多线程
- springmvc-restful
- pfx数字证书
- 生成二维码
- 项目中使用log4j
- 自定义注解
- java发送post请求
- Date时间操作
- spring
- 基础
- spring事务控制
- springMVC
- 注解
- 参数绑定
- springmvc+spring+mybatis+dubbo
- MVC模型
- SpringBoot
- java配置入门
- SpringBoot基础入门
- SpringBoot web
- 整合
- SpringBoot注解
- shiro权限控制
- CommandLineRunner
- mybatis
- 静态资源
- SSM整合
- Aware
- Spring API使用
- Aware接口
- mybatis
- 入门
- mybatis属性自动映射、扫描
- 问题
- @Param 注解在Mybatis中的使用 以及传递参数的三种方式
- mybatis-SQL
- 逆向生成dao、model层代码
- 反向工程中Example的使用
- 自增id回显
- SqlSessionDaoSupport
- invalid bound statement(not found)
- 脉络
- beetl
- beetl是什么
- 与SpringBoot整合
- shiro
- 什么是shiro
- springboot+shrio+mybatis
- 拦截url
- 枚举
- 图片操作
- restful
- java项目中日志处理
- JSON
- 文件工具类
- KeyTool生成证书
- 兼容性问题
- 开发规范
- 工具类开发规范
- 压缩图片
- 异常处理
- web
- JavaScript
- 基础语法
- 创建对象
- BOM
- window对象
- DOM
- 闭包
- form提交-文件上传
- td中内容过长
- 问题1
- js高级
- js文件操作
- 函数_01
- session
- jQuery
- 函数01
- data()
- siblings
- index()与eq()
- select2
- 动态样式
- bootstrap
- 表单验证
- 表格
- MUI
- HTML
- iframe
- label标签
- 规范编程
- layer
- sss
- 微信小程序
- 基础知识
- 实践
- 自定义组件
- 修改自定义组件的样式
- 基础概念
- appid
- 跳转
- 小程序发送ajax
- 微信小程序上下拉刷新
- if
- 工具
- idea
- Git
- maven
- svn
- Netty
- 基础概念
- Handler
- SimpleChannelInboundHandler 与 ChannelInboundHandler
- 网络编程
- 网络I/O
- database
- oracle
- 游标
- PLSQL Developer
- mysql
- MySQL基准测试
- mysql备份
- mysql主从不同步
- mysql安装
- mysql函数大全
- SQL语句
- 修改配置
- 关键字
- 主从搭建
- centos下用rpm包安装mysql
- 常用sql
- information_scheme数据库
- 值得学的博客
- mysql学习
- 运维
- mysql权限
- 配置信息
- 好文mark
- jsp
- jsp EL表达式
- C
- test