~~~
more h.txt
Accept:text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8
Accept-Charset:GBK,utf-8;q=0.7,*;q=0.3
Accept-Encoding:gzip,deflate,sdch
Accept-Language:zh-CN,zh;q=0.8
Cache-Control:max-age=0
Connection:keep-alive
Content-Length:120
Content-Type:application/x-www-form-urlencoded
Cookie:pgv_pvi=9261867008; YWP_VOLUME=0.5; ywadp10001467053656=1269550541; fpc10001467053656=Za9UHhw9|2yealx8Maa|fses10001467053656=|r4bo4J4Maa|Za9UHhw9|fvis10001467053656=|8MHs1Y0YsH|8MHs1Y0YsH|8MHs1Y0YsH|1|8MHs1Y0YsH|8MHs1Y0YsH; pgv_si=s1099326464; _csrf_token=ec1a05522f7a4f48a238dd5b3668f5fb; uliweb_session_id=bc7be2628c12e013abe230b78ca017b1
Host:uliweb.cpython.org
Origin:http://uliweb.cpython.org
Referer:http://uliweb.cpython.org/login
User-Agent:Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_3) AppleWebKit/537.31 (KHTML, like Gecko) Chrome/26.0.1410.65 Safari/537.31
~~~
~~~
f = open("h.txt")
lines = f.readlines()
f.close()
headers = {}
for i in lines:
l = i.strip().split(':')
headers[l[0]]=l[1]
print headers
~~~
或者:
~~~
buf ="""Accept:text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8
Accept-Encoding:gzip,deflate,sdch
Accept-Language:zh-CN,zh;q=0.8
Cache-Control:max-age=0
Connection:keep-alive
Cookie:__utma=17226283.527444573.1390118279.1390118279.1390118279.1; __utmb=17226283.2.10.1390118279; __utmc=17226283; __utmz=17226283.1390118279.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); dc_tos=mzn24p; dc_session_id=-nw24qs|1; uuid_tt_dd=20996925328016542_20140119
Host:blog.csdn.net
If-Modified-Since:Sun, 19 Jan 2014 07:56:40 GMT
User-Agent:Mozilla/5.0 (X11; Linux i686) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/32.0.1700.68 Safari/537.36"""
h = {}
for line in buf.split("\n"):
k,v = line.split(":",1)
h[k] = v
~~~
- Python爬虫入门
- (1):综述
- (2):爬虫基础了解
- (3):Urllib库的基本使用
- (4):Urllib库的高级用法
- (5):URLError异常处理
- (6):Cookie的使用
- (7):正则表达式
- (8):Beautiful Soup的用法
- Python爬虫进阶
- Python爬虫进阶一之爬虫框架概述
- Python爬虫进阶二之PySpider框架安装配置
- Python爬虫进阶三之Scrapy框架安装配置
- Python爬虫进阶四之PySpider的用法
- Python爬虫实战
- Python爬虫实战(1):爬取糗事百科段子
- Python爬虫实战(2):百度贴吧帖子
- Python爬虫实战(3):计算大学本学期绩点
- Python爬虫实战(4):模拟登录淘宝并获取所有订单
- Python爬虫实战(5):抓取淘宝MM照片
- Python爬虫实战(6):抓取爱问知识人问题并保存至数据库
- Python爬虫利器
- Python爬虫文章
- Python爬虫(一)--豆瓣电影抓站小结(成功抓取Top100电影)
- Python爬虫(二)--Coursera抓站小结
- Python爬虫(三)-Socket网络编程
- Python爬虫(四)--多线程
- Python爬虫(五)--多线程续(Queue)
- Python爬虫(六)--Scrapy框架学习
- Python爬虫(七)--Scrapy模拟登录
- Python笔记
- python 知乎爬虫
- Python 爬虫之——模拟登陆
- python的urllib2 模块解析
- 蜘蛛项目要用的数据库操作
- gzip 压缩格式的网站处理方法
- 通过浏览器的调试得出 headers转换成字典
- Python登录到weibo.com
- weibo v1.4.5 支持 RSA协议(模拟微博登录)
- 搭建Scrapy爬虫的开发环境
- 知乎精华回答的非专业大数据统计
- 基于PySpider的weibo.cn爬虫
- Python-实现批量抓取妹子图片
- Python库
- python数据库-mysql
- 图片处理库PIL
- Mac OS X安装 Scrapy、PIL、BeautifulSoup
- 正则表达式 re模块
- 邮件正则
- 正则匹配,但过滤某些字符串
- dict使用方法和快捷查找
- httplib2 库的使用