使用uliweb里面的数据库操作函数。
安装uliweb后,引用orm。
~~~
#coding=utf-8
from uliweb.orm import *
~~~
### 链接数据库[¶](http://uliweb.clkg.org/tutorial/view_chapter/189#title_0-0-1)
~~~
db=get_connection('mysql://root:root@localhost/mail?charset=utf8')
~~~
### 表和字段[¶](http://uliweb.clkg.org/tutorial/view_chapter/189#title_0-0-2)
~~~
class test(Model):
testname = Field(str)
dt = Field(datetime.datetime)
status = Field(str)
~~~
描述字段中,str 最大长度的例子;
~~~
name = Field(str, max_length=8096)
~~~
### 在库里面建立表[¶](http://uliweb.clkg.org/tutorial/view_chapter/189#title_0-0-3)
~~~
db.metadata.create_all()
~~~
### 新加一条记录[¶](http://uliweb.clkg.org/tutorial/view_chapter/189#title_0-0-4)
~~~
n = test()
n.testname="jeapedu"
n.status="0"
n.save()
~~~
### 更改一条记录[¶](http://uliweb.clkg.org/tutorial/view_chapter/189#title_0-0-5)
~~~
n = test.get(test.c.status=="0")
n.update(status="1")
n.save()
~~~
### 读取所有内容[¶](http://uliweb.clkg.org/tutorial/view_chapter/189#title_0-0-6)
~~~
test.all()
~~~
参考网址: [https://github.com/limodou/uliweb/blob/master/test/test_orm.py](https://github.com/limodou/uliweb/blob/master/test/test_orm.py)
文档地址: [http://limodou.github.io/uliweb-doc/zh_CN/orm.html](http://limodou.github.io/uliweb-doc/zh_CN/orm.html)
- Python爬虫入门
- (1):综述
- (2):爬虫基础了解
- (3):Urllib库的基本使用
- (4):Urllib库的高级用法
- (5):URLError异常处理
- (6):Cookie的使用
- (7):正则表达式
- (8):Beautiful Soup的用法
- Python爬虫进阶
- Python爬虫进阶一之爬虫框架概述
- Python爬虫进阶二之PySpider框架安装配置
- Python爬虫进阶三之Scrapy框架安装配置
- Python爬虫进阶四之PySpider的用法
- Python爬虫实战
- Python爬虫实战(1):爬取糗事百科段子
- Python爬虫实战(2):百度贴吧帖子
- Python爬虫实战(3):计算大学本学期绩点
- Python爬虫实战(4):模拟登录淘宝并获取所有订单
- Python爬虫实战(5):抓取淘宝MM照片
- Python爬虫实战(6):抓取爱问知识人问题并保存至数据库
- Python爬虫利器
- Python爬虫文章
- Python爬虫(一)--豆瓣电影抓站小结(成功抓取Top100电影)
- Python爬虫(二)--Coursera抓站小结
- Python爬虫(三)-Socket网络编程
- Python爬虫(四)--多线程
- Python爬虫(五)--多线程续(Queue)
- Python爬虫(六)--Scrapy框架学习
- Python爬虫(七)--Scrapy模拟登录
- Python笔记
- python 知乎爬虫
- Python 爬虫之——模拟登陆
- python的urllib2 模块解析
- 蜘蛛项目要用的数据库操作
- gzip 压缩格式的网站处理方法
- 通过浏览器的调试得出 headers转换成字典
- Python登录到weibo.com
- weibo v1.4.5 支持 RSA协议(模拟微博登录)
- 搭建Scrapy爬虫的开发环境
- 知乎精华回答的非专业大数据统计
- 基于PySpider的weibo.cn爬虫
- Python-实现批量抓取妹子图片
- Python库
- python数据库-mysql
- 图片处理库PIL
- Mac OS X安装 Scrapy、PIL、BeautifulSoup
- 正则表达式 re模块
- 邮件正则
- 正则匹配,但过滤某些字符串
- dict使用方法和快捷查找
- httplib2 库的使用