~~~py
import requests
import re,sys,time
from bs4 import BeautifulSoup
head={
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/50.0.2661.102 UBrowser/6.1.2107.204 Safari/537.36'
}
class downloader():
def __init__(self):
self.server='http://book.zongheng.com'
self.target='http://book.zongheng.com/showchapter/929099.html'
self.list=[]
# 获取下载链接
def get_download_url(self):
# target='http://book.zongheng.com/showchapter/929099.html'
req=requests.get(url=self.target)
bf=BeautifulSoup(req.text,"html.parser")
texts=bf.find_all('ul',class_='chapter-list clearfix')
texts=BeautifulSoup(str(texts[1]),"html.parser").find_all('a')
for a in texts:
self.list.append({
'name':a.string,
'url':a.get('href')
})
# 获取每章内容
def get_context(self,urls):
req=requests.get(url=urls)
bf=BeautifulSoup(req.text,"html.parser")
texts=bf.find_all('div',class_='content')
new_text=re.sub('[ | ]+','\n\n',texts[0].text)
return new_text
# 将爬取的数据写入文件
def write_file(self,name,path,context):
write_flag = True
with open(path,'a',encoding='utf-8') as f:
f.write(name+'\n')
f.writelines(context)
f.write('\n\n')
if __name__=='__main__':
dl=downloader()
dl.get_download_url()
i=0
print(len(dl.list))
for n in dl.list:
i += 1
a=dl.get_context(n['url'])
dl.write_file(n['name'],'不知道什么小说.txt',dl.get_context(n['url']))
sys.stdout.write("\r")
sys.stdout.write(" 已下载:%.1f%%" % float(i/len(dl.list)*100))
sys.stdout.flush()
~~~
- 基础部分
- 基础知识
- 变量
- 数据类型
- 数字与布尔详解
- 列表详解list
- 字符串详解str
- 元组详解tup
- 字典详解dict
- 集合详解set
- 运算符
- 流程控制与循环
- 字符编码
- 编的小程序
- 三级菜单
- 斐波那契数列
- 汉诺塔
- 文件操作
- 函数相关
- 函数基础知识
- 函数进阶知识
- lambda与map-filter-reduce
- 装饰器知识
- 生成器和迭代器
- 琢磨的小技巧
- 通过operator函数将字符串转换回运算符
- 目录规范
- 异常处理
- 常用模块
- 模块和包相关概念
- 绝对导入&相对导入
- pip使用第三方源
- time&datetime模块
- random随机数模块
- os 系统交互模块
- sys系统模块
- shutil复制&打包模块
- json&pickle&shelve模块
- xml序列化模块
- configparser配置模块
- hashlib哈希模块
- subprocess命令模块
- 日志logging模块基础
- 日志logging模块进阶
- 日志重复输出问题
- re正则表达式模块
- struct字节处理模块
- abc抽象类与多态模块
- requests与urllib网络访问模块
- 参数控制模块1-optparse-过时
- 参数控制模块2-argparse
- pymysql数据库模块
- requests网络请求模块
- 面向对象
- 面向对象相关概念
- 类与对象基础操作
- 继承-派生和组合
- 抽象类与接口
- 多态与鸭子类型
- 封装-隐藏与扩展性
- 绑定方法与非绑定方法
- 反射-字符串映射属性
- 类相关内置方法
- 元类自定义及单例模式
- 面向对象的软件开发
- 网络-并发编程
- 网络编程SOCKET
- socket简介和入门
- socket代码实例
- 粘包及粘包解决办法
- 基于UDP协议的socket
- 文件传输程序实战
- socketserver并发模块
- 多进程multiprocessing模块
- 进程理论知识
- 多进程与守护进程
- 锁-信号量-事件
- 队列与生产消费模型
- 进程池Pool
- 多线程threading模块
- 进程理论和GIL锁
- 死锁与递归锁
- 多线程与守护线程
- 定时器-条件-队列
- 线程池与进程池(新方法)
- 协程与IO模型
- 协程理论知识
- gevent与greenlet模块
- 5种网络IO模型
- 非阻塞与多路复用IO实现
- 带着目标学python
- Pycharm基本使用
- 爬虫
- 案例-爬mzitu美女
- 案例-爬小说
- beautifulsoup解析模块
- etree中的xpath解析模块
- 反爬对抗-普通验证码
- 反爬对抗-session登录
- 反爬对抗-代理池
- 爬虫技巧-线程池
- 爬虫对抗-图片懒加载
- selenium浏览器模拟