### 第16章:编写自定义存储引擎
** 目录**
[ 16.1. 前言](#)[ 16.2. 概述](#)[ 16.3. 创建存储引擎源文件](#)[ 16.4. 创建handlerton``](#)[ 16.5. 对处理程序进行实例化处理](#)[ 16.6. 定义表扩展](#)[ 16.7. 创建表](#)[ 16.8. 打开表](#)[ 16.9. 实施基本的表扫描功能](#)[ 16.9.1. 实施store_lock()函数``](#)[ 16.9.2. 实施external_lock()函数](#)[ 16.9.3. 实施rnd_init()函数``](#)[ 16.9.4. 实施info()函数``](#)[ 16.9.5. 实施extra()函数``](#)[ 16.9.6. 实施rnd_next()函数``](#)[ 16.10. 关闭表](#)[ 16.11. 为存储引擎添加对INSERT的支持``](#)[ 16.12. 为存储引擎添加对UPDATE的支持``](#)[ 16.13. 为存储引擎添加对DELETE的支持``](#)[ 16.14. API引用](#)[16.14.1. bas_ext](#)[16.14.2. close](#)[16.14.3. create](#)[16.14.4. delete_row](#)[16.14.5. delete_table](#)[16.14.6. external_lock](#)[16.14.7. extra](#)[16.14.8. info](#)[16.14.9. open](#)[16.14.10. rnd_init](#)[16.14.11. rnd_next](#)[16.14.12. store_lock](#)[16.14.13. update_row](#)[16.14.14. write_row](#)
### 16.1. 前言
对于MySQL 5.1,MySQL AB公司引入了插件式存储引擎体系结构,这样,就能创建新的存储引擎,并将它们添加到正在运行的MySQL服务器上,而不必重新编译服务器本身。
该体系结构简化了新存储引擎的开发和部署。
本章的意图是作为指南,用于帮助你为新的插件式存储引擎体系结构开发存储引擎。
关于MySQL插件式存储引擎体系结构的更多信息,请参见[第14章:](#)[*插件式存储引擎体系结构*](# "Chapter 14. Pluggable Storage Engine Architecture")。
### 16.2. 概述
MySQL服务器采用了模块化风格。
**图16.1:MySQL体系结构**
![MySQL architecture](https://box.kancloud.cn/2015-11-02_5636c7c469b77.png)
存储引擎负责管理数据存储,以及MySQL的索引管理。通过定义的API,MySQL服务器能够与存储引擎进行通信。
每个存储引擎均是1个继承类,每个类实例作为处理程序而被引用。
针对需要与特殊表一起工作的每个线程,处理程序是在1个处理程序的基础上实例化的。例如,如果3个连接全都在相同的表上工作,需要创建3个处理程序实例。
一旦创建了处理程序实例,MySQL服务器将向处理程序发送命令,以便执行数据存储和检索任务,如打开表、操纵行和管理索引等。
能够以累进方式创建定制存储引擎:开发人员能够以只读存储引擎启动,随后添加对INSERT、UPDATE和DELETE操作的支持,甚至能够增加对索引功能、事务和其他高级操作的支持。
### 16.3. 创建存储引擎源文件
实施新存储引擎的最简单方法是,通过拷贝和更改EXAMPLE存储引擎开始。在MySQL 5.1源码树的sql/examples/目录下可找到文件ha_example.cc和ha_example.h。关于如何获得5.1源码树的说明,请参见[2.8.3节,“从开发源码树安装”](# "2.8.3. Installing from the Development Source Tree")。
复制文件时,将名称从ha_example.cc和ha_example.h更改为与存储引擎相适应的名称,如ha_foo.cc和ha_foo.h。
拷贝并重命名了这些文件后,必须更换所有的EXAMPLE示例,以及具有存储引擎名称的示例。如果你熟悉sed,也能自动完成这些步骤:
~~~
sed s/EXAMPLE/FOO/g ha_example.h | sed s/example/foo/g ha_foo.h
~~~
~~~
sed s/EXAMPLE/FOO/g ha_example.cc | sed s/example/foo/g ha_foo.cc
~~~
### 16.4. 创建handlerton``
handlerton(“单个处理程序”的简称)定义了存储引擎,并包含指向函数的函数指针,它以整体方式作用在引擎上,而函数工作在单独的处理程序实例中。在这类函数的一些示例中,包含用于处理注释和回滚的事务函数。
下面给出了一个来自EXAMPLE存储引擎的示例:
~~~
handlerton example_hton= {
~~~
~~~
"EXAMPLE",
~~~
~~~
SHOW_OPTION_YES,
~~~
~~~
"Example storage engine",
~~~
~~~
DB_TYPE_EXAMPLE_DB,
~~~
~~~
NULL, /* Initialize */
~~~
~~~
0, /* slot */
~~~
~~~
0, /* savepoint size. */
~~~
~~~
NULL, /* close_connection */
~~~
~~~
NULL, /* savepoint */
~~~
~~~
NULL, /* rollback to savepoint */
~~~
~~~
NULL, /* release savepoint */
~~~
~~~
NULL, /* commit */
~~~
~~~
NULL, /* rollback */
~~~
~~~
NULL, /* prepare */
~~~
~~~
NULL, /* recover */
~~~
~~~
NULL, /* commit_by_xid */
~~~
~~~
NULL, /* rollback_by_xid */
~~~
~~~
NULL, /* create_cursor_read_view */
~~~
~~~
NULL, /* set_cursor_read_view */
~~~
~~~
NULL, /* close_cursor_read_view */
~~~
~~~
example_create_handler, /* Create a new handler */
~~~
~~~
NULL, /* Drop a database */
~~~
~~~
NULL, /* Panic call */
~~~
~~~
NULL, /* Release temporary latches */
~~~
~~~
NULL, /* Update Statistics */
~~~
~~~
NULL, /* Start Consistent Snapshot */
~~~
~~~
NULL, /* Flush logs */
~~~
~~~
NULL, /* Show status */
~~~
~~~
NULL, /* Replication Report Sent Binlog */
~~~
~~~
HTON_CAN_RECREATE
~~~
~~~
};
~~~
下面给出了来自handler.h的handlerton定义:
~~~
typedef struct
~~~
~~~
{
~~~
~~~
const char *name;
~~~
~~~
SHOW_COMP_OPTION state;
~~~
~~~
const char *comment;
~~~
~~~
enum db_type db_type;
~~~
~~~
bool (*init)();
~~~
~~~
uint slot;
~~~
~~~
uint savepoint_offset;
~~~
~~~
int (*close_connection)(THD *thd);
~~~
~~~
int (*savepoint_set)(THD *thd, void *sv);
~~~
~~~
int (*savepoint_rollback)(THD *thd, void *sv);
~~~
~~~
int (*savepoint_release)(THD *thd, void *sv);
~~~
~~~
int (*commit)(THD *thd, bool all);
~~~
~~~
int (*rollback)(THD *thd, bool all);
~~~
~~~
int (*prepare)(THD *thd, bool all);
~~~
~~~
int (*recover)(XID *xid_list, uint len);
~~~
~~~
int (*commit_by_xid)(XID *xid);
~~~
~~~
int (*rollback_by_xid)(XID *xid);
~~~
~~~
void *(*create_cursor_read_view)();
~~~
~~~
void (*set_cursor_read_view)(void *);
~~~
~~~
void (*close_cursor_read_view)(void *);
~~~
~~~
handler *(*create)(TABLE *table);
~~~
~~~
void (*drop_database)(char* path);
~~~
~~~
int (*panic)(enum ha_panic_function flag);
~~~
~~~
int (*release_temporary_latches)(THD *thd);
~~~
~~~
int (*update_statistics)();
~~~
~~~
int (*start_consistent_snapshot)(THD *thd);
~~~
~~~
bool (*flush_logs)();
~~~
~~~
bool (*show_status)(THD *thd, stat_print_fn *print, enum ha_stat_type stat);
~~~
~~~
int (*repl_report_sent_binlog)(THD *thd, char *log_file_name, my_off_t end_offset);
~~~
~~~
uint32 flags;
~~~
~~~
} handlerton;
~~~
共有30个handlerton元素,但只有少量元素是强制性的(明确地讲是前4个元素和第21个元素)。
1. 存储引擎的名称。这是创建表时将使用的名称(CREATE TABLE ... ENGINE = *FOO*;)。
2. 确定使用SHOW STORAGE ENGINES命令时是否列出存储引擎。
3. 存储引擎注释,对使用SHOW STORAGE ENGINES命令时显示的存储引擎的描述。
4. 在MySQL服务器内唯一识别存储引擎的整数。内置存储引擎使用的常数定义在handler.h文件中。作为创建常数的可选方法,可使用大于25的整数。
5. 指向存储引擎初始化程序的指针。仅当启动服务器时才调用该函数,以便在实例化处理程序之前,存储引擎类能执行必要的内务操作。
6. 插槽。保存每连接的信息时,每个存储引擎在thd中有自己的内存区域(实际上为指针)。它是作为thd->ha_data[*foo*_hton.slot]访问的。插槽编号在调用*foo*_init()后由MySQL初始化。
7. 保存点偏移。为了保存每个savepoint数据,为存储引擎提供了请求的大小(典型情况下为0)。
必须以静态方式初始化savepoint偏移,使其具有所有的内存大小,以便保存每个savepoint的信息。在*foo*_init之后,它被更改为savepoint存储区域的偏移,存储引擎不需要使用它。
8. 由事务性存储引擎使用,清理其存储段内分配的内存,和/或回滚任何未完成的事务。
9. 由事务性存储引擎选择性使用,创建savepoint(保存点),并将其保存到提供的内存中。
10.指向处理程序rollback_to_savepoint()函数的函数指针。它用于在事务期间返回savepoint。仅对支持保存点的存储引擎才会填充它。
11.指向处理程序release_savepoint()函数的函数指针。它用于在事务期间释放保存点的资源。仅对支持保存点的存储引擎才会填充它。
12.指向处理程序commit()函数的函数指针。它用于提交事务。仅对支持事务的存储引擎才会填充它。
13.指向处理程序rollback()函数的函数指针。它用于回滚交易。仅对支持事务的存储引擎才会填充它。
14.XA事务性存储引擎所需。为提交操作准备事务。将XID与事务关联起来。
15.XA事务性存储引擎所需。恢复由XID标识的事务。
16.XA事务性存储引擎所需。提交由XID标识的事务。
17.XA事务性存储引擎所需。回滚由XID标识的事务。
18.与服务器端光标一起使用,尚未实施。
19.与服务器端光标一起使用,尚未实施。
20.与服务器端光标一起使用,尚未实施。
21.*MANDATORY*:构造并返回处理程序实例。
22.撤销方案时,如果存储引擎需要执行特殊步骤时使用(如在使用表空间的存储引擎中使用)。
23.清理在服务器关闭和崩溃时调用的函数。
24.InnoDB特殊函数。
25.在启动SHOW STATUS时调用InnoDB特殊函数。
26.调用InnoDB特殊函数以开始连续读取。
27.调用它,指明应将日志刷新为可靠的存储。
28.在存储引擎上提供可被人员读取的状态信息。
29.InnoDB特殊函数用于复制。
30.Handlerton标志,通常与ALTER TABLE相关。可能的值定义于sql/handler.h文件中,并在此列出;
~~~
31. #define HTON_NO_FLAGS 0
~~~
~~~
32. #define HTON_CLOSE_CURSORS_AT_COMMIT (1 << 0)
~~~
~~~
33. #define HTON_ALTER_NOT_SUPPORTED (1 << 1)
~~~
~~~
34. #define HTON_CAN_RECREATE (1 << 2)
~~~
~~~
35. #define HTON_FLUSH_AFTER_RENAME (1 << 3)
~~~
~~~
36. #define HTON_NOT_USER_SELECTABLE (1 << 4)
~~~
HTON_ALTER_NOT_SUPPORTED由FEDERATED存储引擎使用,用以指明存储引擎不接受AFTER TABLE语句。
HTON_FLUSH_AFTER_RENAME指明,重命名表后 ,必须调用FLUSH LOGS。
HTON_NOT_USER_SELECTABLE指明存储引擎不能由用户选择,而是用作系统存储引擎,如用于二进制日志的伪存储引擎。
### 16.5. 对处理程序进行实例化处理
调用存储引擎的第1个方法是调用新的处理程序实例。
在存储引擎源文件中定义handlerton之前,必须定义用于函数实例化的函数题头。下面给出了1个来自CSV引擎的示例:
~~~
static handler* tina_create_handler(TABLE *table);
~~~
正如你所见到的那样,函数接受指向处理程序准备管理的表的指针,并返回处理程序对象。
定义了函数题头后,用第21个handlerton元素中的函数指针命名函数,指明函数负责生成新的处理程序实例。
下面给出了MyISAM存储引擎的实例化函数示例:
~~~
static handler *myisam_create_handler(TABLE *table)
~~~
~~~
{
~~~
~~~
return new ha_myisam(table);
~~~
~~~
}
~~~
该调用随后与存储引擎的构造程序一起工作。下面给出了来自FEDERATED存储引擎的1个示例:
~~~
ha_federated::ha_federated(TABLE *table_arg)
~~~
~~~
:handler(&federated_hton, table_arg),
~~~
~~~
mysql(0), stored_result(0), scan_flag(0),
~~~
~~~
ref_length(sizeof(MYSQL_ROW_OFFSET)), current_position(0)
~~~
~~~
{}
~~~
下面给出了来自EXAMPLE存储引擎的另一个示例:
~~~
ha_example::ha_example(TABLE *table_arg)
~~~
~~~
:handler(&example_hton, table_arg)
~~~
~~~
{}
~~~
FEDERATED示例中的附加元素是处理程序的额外初始化要素。所要求的最低实施是EXAMPLE示例中显示的handler()初始化。
### 16.6. 定义表扩展
就给定的表、数据和索引,要求存储引擎为MySQL服务器提供存储引擎所使用的扩展列表。
扩展应采用以Null终结的字符串数组形式。下面给出了CSV引擎使用的数组:
~~~
static const char *ha_tina_exts[] = {
~~~
~~~
".CSV",
~~~
~~~
NullS
~~~
~~~
};
~~~
调用[bas_ext()](# "16.14.1. bas_ext")函数时返回该数组。
~~~
const char **ha_tina::bas_ext() const
~~~
~~~
{
~~~
~~~
return ha_tina_exts;
~~~
~~~
}
~~~
通过提供扩展信息,你还能忽略DROP TABLE功能的实施,这是因为,通过关闭表并用你指定的扩展删除所有文件,MySQL服务器能实现该功能。
### 16.7. 创建表
一旦实例化了处理程序,所需的第1个操作很可能是创建表。
你的存储引擎必须实现[create()](# "16.14.3. create")虚拟函数:
~~~
virtual int create(const char *name, TABLE *form, HA_CREATE_INFO *info)=0;
~~~
该函数应创建所有必须的文件,然后关闭表。MySQL服务器将调用随后需打开的表。
*name参数是表的名称。*form参数是st_table结构,该结构定义了表并与MySQL服务器已创建的*tablename*.frm文件的内容匹配。在大多数情况下,存储引擎不需要更改*tablename*.frm文件,也没有支持该操作的预置功能。
*info参数是包含CREATE TABLE语句用于创建表所需信息的结构。该结构定义于handler.h文件中,并为了便于参考列于下面:
~~~
typedef struct st_ha_create_information
~~~
~~~
{
~~~
~~~
CHARSET_INFO *table_charset, *default_table_charset;
~~~
~~~
LEX_STRING connect_string;
~~~
~~~
const char *comment,*password;
~~~
~~~
const char *data_file_name, *index_file_name;
~~~
~~~
const char *alias;
~~~
~~~
ulonglong max_rows,min_rows;
~~~
~~~
ulonglong auto_increment_value;
~~~
~~~
ulong table_options;
~~~
~~~
ulong avg_row_length;
~~~
~~~
ulong raid_chunksize;
~~~
~~~
ulong used_fields;
~~~
~~~
SQL_LIST merge_list;
~~~
~~~
enum db_type db_type;
~~~
~~~
enum row_type row_type;
~~~
~~~
uint null_bits; /* NULL bits at start of record */
~~~
~~~
uint options; /* OR of HA_CREATE_ options */
~~~
~~~
uint raid_type,raid_chunks;
~~~
~~~
uint merge_insert_method;
~~~
~~~
uint extra_size; /* length of extra data segment */
~~~
~~~
bool table_existed; /* 1 in create if table existed */
~~~
~~~
bool frm_only; /* 1 if no ha_create_table() */
~~~
~~~
bool varchar; /* 1 if table has a VARCHAR */
~~~
~~~
} HA_CREATE_INFO;
~~~
基本的存储引擎能忽略*form和*info的内容,这是因为,真正所需的是创建存储引擎所使用的数据文件,以及对数据文件的可能初始化操作(假定存储文件是基于文件的)。
下面给出了来自CSV存储引擎的实施示例:
~~~
int ha_tina::create(const char *name, TABLE *table_arg,
~~~
~~~
HA_CREATE_INFO *create_info)
~~~
~~~
{
~~~
~~~
char name_buff[FN_REFLEN];
~~~
~~~
File create_file;
~~~
~~~
DBUG_ENTER("ha_tina::create");
~~~
~~~
~~~
~~~
if ((create_file= my_create(fn_format(name_buff, name, "", ".CSV",
~~~
~~~
MY_REPLACE_EXT|MY_UNPACK_FILENAME),0,
~~~
~~~
O_RDWR | O_TRUNC,MYF(MY_WME))) < 0)
~~~
~~~
DBUG_RETURN(-1);
~~~
~~~
~~~
~~~
my_close(create_file,MYF(0));
~~~
~~~
~~~
~~~
DBUG_RETURN(0);
~~~
~~~
}
~~~
在前面的例子中,CSV引擎未引用*table_arg或*create_info参数,而是简单地创建了所需的数据文件,关闭它们,并返回。
my_create和my_close函数是定义于src/include/my_sys.h文件中的助手函数。
### 16.8. 打开表
在表上执行任何读或写操作之前,MySQL服务器将调用[open()](# "16.14.9. open")方法打开表数据和索引文件(如果存在的话)。
~~~
int open(const char *name, int mode, int test_if_locked);
~~~
第1个参数是要打开的表的名称。第2个参数确定了要打开的文件或准备执行的操作。它们的值定义于handler.h中,并为了方便起见列在下面:
~~~
#define HA_OPEN_KEYFILE 1
~~~
~~~
#define HA_OPEN_RNDFILE 2
~~~
~~~
#define HA_GET_INDEX 4
~~~
~~~
#define HA_GET_INFO 8 /* do a ha_info() after open */
~~~
~~~
#define HA_READ_ONLY 16 /* File opened as readonly */
~~~
~~~
#define HA_TRY_READ_ONLY 32 /* Try readonly if can't open with read and write */
~~~
~~~
#define HA_WAIT_IF_LOCKED 64 /* Wait if locked on open */
~~~
~~~
#define HA_ABORT_IF_LOCKED 128 /* skip if locked on open.*/
~~~
~~~
#define HA_BLOCK_LOCK 256 /* unlock when reading some records */
~~~
~~~
#define HA_OPEN_TEMPORARY 512
~~~
最后一个选项规定了是否要在打开表之前检查表上的锁定。
在典型情况下,存储引擎需要实施某种形式的共享访问控制,以防止在多线程环境下的文件损坏。关于如何实施文件锁定的示例,请参见sql/examples/ha_tina.cc的get_share()和free_share()方法。
### 16.9. 实施基本的表扫描功能
[ 16.9.1. 实施store_lock()函数``](#)[ 16.9.2. 实施external_lock()函数](#)[ 16.9.3. 实施rnd_init()函数``](#)[ 16.9.4. 实施info()函数``](#)[ 16.9.5. 实施extra()函数``](#)[ 16.9.6. 实施rnd_next()函数``](#)
最基本的存储引擎能实现只读表扫描功能。这类引擎可用于支持SQL日志查询、以及在MySQL之外填充的其他数据文件。
本节介绍的方法实施提供了创建更高级存储引擎的基础。
下面给出了在CSV引擎的9行表扫描过程中进行的方法调用:
~~~
ha_tina::store_lock
ha_tina::external_lock
ha_tina::info
ha_tina::rnd_init
ha_tina::extra - ENUM HA_EXTRA_CACHE Cache record in HA_rrnd()
ha_tina::rnd_next
ha_tina::rnd_next
ha_tina::rnd_next
ha_tina::rnd_next
ha_tina::rnd_next
ha_tina::rnd_next
ha_tina::rnd_next
ha_tina::rnd_next
ha_tina::rnd_next
ha_tina::extra - ENUM HA_EXTRA_NO_CACHE End cacheing of records (def)
ha_tina::external_lock
ha_tina::extra - ENUM HA_EXTRA_RESET Reset database to after open
~~~
### 16.9.1. 实施store_lock()函数``
在执行任何读取或写操作之前,调用[store_lock()](# "16.14.12. store_lock")函数。
将锁定添加到表锁定处理程序之前(请参见thr_lock.c),mysqld将用请求的锁调用存储锁定。目前,存储锁定能将写锁定更改为读锁定(或其他锁定),忽略锁定(如果不打算使用MySQL锁定的话),或为很多表添加锁定(就像使用MERGE处理程序时作的那样)。
例如,Berkeley DB能将所有的WRITE锁定更改为TL_WRITE_ALLOW_WRITE(表示我们正在执行WRITES,但我们仍允许其他人员进行操作)。
释放锁定时,也将调用store_lock(),在这种情况下,通常不需做任何事。
在某些特殊情况下,MySQL可能会发送对TL_IGNORE的请求。这意味着我们正在请求与上次相同的锁定,这也应被忽略(当我们打开了表的某一部分时,如果其他人执行了表刷新操作,就会出现该情况,此时,mysqld将关闭并再次打开表,然后获取与上次相同的锁定)。我们打算在将来删除该特性。
可能的锁定类型定义于includes/thr_lock.h中,并列在下面:
~~~
enum thr_lock_type
~~~
~~~
{
~~~
~~~
TL_IGNORE=-1,
~~~
~~~
TL_UNLOCK, /* UNLOCK ANY LOCK */
~~~
~~~
TL_READ, /* Read lock */
~~~
~~~
TL_READ_WITH_SHARED_LOCKS,
~~~
~~~
TL_READ_HIGH_PRIORITY, /* High prior. than TL_WRITE. Allow concurrent insert */
~~~
~~~
TL_READ_NO_INSERT, /* READ, Don't allow concurrent insert */
~~~
~~~
TL_WRITE_ALLOW_WRITE, /* Write lock, but allow other threads to read / write. */
~~~
~~~
TL_WRITE_ALLOW_READ, /* Write lock, but allow other threads to read / write. */
~~~
~~~
TL_WRITE_CONCURRENT_INSERT, /* WRITE lock used by concurrent insert. */
~~~
~~~
TL_WRITE_DELAYED, /* Write used by INSERT DELAYED. Allows READ locks */
~~~
~~~
TL_WRITE_LOW_PRIORITY, /* WRITE lock that has lower priority than TL_READ */
~~~
~~~
TL_WRITE, /* Normal WRITE lock */
~~~
~~~
TL_WRITE_ONLY /* Abort new lock request with an error */
~~~
~~~
};
~~~
实际的锁定处理因锁定实施的不同而不同,你可以选择某些请求的锁定类型或不选择任何锁定类型,并根据情况恰当地代入你自己的方法。下面给出了1个CSV存储引擎实施示例:
~~~
THR_LOCK_DATA **ha_tina::store_lock(THD *thd,
~~~
~~~
THR_LOCK_DATA **to,
~~~
~~~
enum thr_lock_type lock_type)
~~~
~~~
{
~~~
~~~
if (lock_type != TL_IGNORE && lock.type == TL_UNLOCK)
~~~
~~~
lock.type=lock_type;
~~~
~~~
*to++= &lock;
~~~
~~~
return to;
~~~
~~~
}
~~~
### 16.9.2. 实施external_lock()函数
[external_lock()](# "16.14.6. external_lock")函数是在事务开始时调用的,或发出LOCK TABLES语句时调用的,用于事务性存储引擎。
在sql/ha_innodb.cc和sql/ha_berkeley.cc文件中,可找到使用external_lock()的示例,但大多数存储引擎简单地返回0,就像EXAMPLE存储引擎那样:
~~~
int ha_example::external_lock(THD *thd, int lock_type)
~~~
~~~
{
~~~
~~~
DBUG_ENTER("ha_example::external_lock");
~~~
~~~
DBUG_RETURN(0);
~~~
~~~
}
~~~
### 16.9.3. 实施rnd_init()函数``
在任何表扫描之前调用的函数是[rnd_init()](# "16.14.10. rnd_init")函数。函数rnd_init()用于为表扫描作准备,将计数器和指针复位为表的开始状态。
下述示例来自CSV存储引擎:
~~~
int ha_tina::rnd_init(bool scan)
{
DBUG_ENTER("ha_tina::rnd_init");
current_position= next_position= 0;
records= 0;
chain_ptr= chain;
DBUG_RETURN(0);
}
~~~
### 16.9.4. 实施info()函数``
执行表扫描操作之前,将调用[info()](# "16.14.8. info")函数,以便为优化程序提供额外信息。
优化程序所需的信息不是通过返回值给定的,你需填充存储引擎类的特定属性,当info()调用返回后,优化程序将读取存储引擎类。
除了供优化程序使用外,在调用info()函数期间,很多值集合还将用于SHOW TABLE STATUS语句。
在sql/handler.h中列出了完整的公共属性,下面给出了一些常见的属性:
~~~
ulonglong data_file_length; /* Length off data file */
~~~
~~~
ulonglong max_data_file_length; /* Length off data file */
~~~
~~~
ulonglong index_file_length;
~~~
~~~
ulonglong max_index_file_length;
~~~
~~~
ulonglong delete_length; /* Free bytes */
~~~
~~~
ulonglong auto_increment_value;
~~~
~~~
ha_rows records; /* Records in table */
~~~
~~~
ha_rows deleted; /* Deleted records */
~~~
~~~
ulong raid_chunksize;
~~~
~~~
ulong mean_rec_length; /* physical reclength */
~~~
~~~
time_t create_time; /* When table was created */
~~~
~~~
time_t check_time;
~~~
~~~
time_t update_time;
~~~
对于表扫描,最重要的属性是“records”,它指明了表中的记录数。当存储引擎指明表中有0或1行时,或有2行以上时,在这两种情况下,优化程序的执行方式不同。因此,当你在执行表扫描之前不清楚表中有多少行时,应返回大于等于2的值,这很重要(例如,数据是在外部填充的)。
### 16.9.5. 实施extra()函数``
执行某些操作之前,应调用[extra()](# "16.14.7. extra")函数,以便为存储引擎就如何执行特定操作予以提示。
额外调用中的提示实施不是强制性的,大多数存储引擎均返回0:
~~~
int ha_tina::extra(enum ha_extra_function operation)
{
DBUG_ENTER("ha_tina::extra");
DBUG_RETURN(0);
}
~~~
### 16.9.6. 实施rnd_next()函数``
完成表的初始化操作后,MySQL服务器将调用处理程序的[rnd_next()](# "16.14.11. rnd_next")函数,每两个扫描行调用1次,直至满足了服务器的搜索条件或到达文件结尾为止,在后一种情况下,处理程序将返回HA_ERR_END_OF_FILE。
rnd_next()函数有一个名为*buf的单字节数组参数。对于*buf参数,必须按内部MySQL格式用表行的内容填充它。
服务器采用了三种数据格式:固定长度行,可变长度行,以及具有BLOB指针的可变长度行。对于每种格式,各列将按照它们由CREATE TABLE语句定义的顺序显示(表定义保存在.frm文件中,优化程序和处理程序均能从相同的源,即TABLE结构,访问表的元数据)。
每种格式以每列1比特的"NULL bitmap"开始。对于含6个列的表,其bitmap为1字节,对于含9~16列的表,其bitmap为2字节,依此类推。要想指明特定的值是NULL,应将该列NULL位设置为1。
当NULL bitmap逐个进入列后,每列将具有MySQL手册的“MySQL数据类型”一节中指定的大小。在服务器中,列的数据类型定义在sql/field.cc文件中。对于固定长度行格式,列将简单地逐个放置。对于可变长度行,VARCHAR列将被编码为1字节长,后跟字符串。对于具有BLOB列的可变长度行,每个blob由两部分表示:首先是表示BLOB实际大小的整数,然后是指向内存中BLOB的指针。
在任何表处理程序中从rnd_next()开始,可找到行转换(或“包装”)的示例。例如,在ha_tina.cc中,find_current_row()内的代码给出了使用TABLE结构(由表指向的)和字符串对象(命名缓冲)包装字符数据(来自CSV文件)的方法。将行写回磁盘需要反向转换,从内部格式解包。
下述示例来自CSV存储引擎:
~~~
int ha_tina::rnd_next(byte *buf)
~~~
~~~
{
~~~
~~~
DBUG_ENTER("ha_tina::rnd_next");
~~~
~~~
~~~
~~~
statistic_increment(table->in_use->status_var.ha_read_rnd_next_count, &LOCK_status);
~~~
~~~
~~~
~~~
current_position= next_position;
~~~
~~~
if (!share->mapped_file)
~~~
~~~
DBUG_RETURN(HA_ERR_END_OF_FILE);
~~~
~~~
if (HA_ERR_END_OF_FILE == find_current_row(buf) )
~~~
~~~
DBUG_RETURN(HA_ERR_END_OF_FILE);
~~~
~~~
~~~
~~~
records++;
~~~
~~~
DBUG_RETURN(0);
~~~
~~~
}
~~~
对于从内部行格式到CSV行格式的转换,它是在find_current_row()函数中执行的。
~~~
int ha_tina::find_current_row(byte *buf)
~~~
~~~
{
~~~
~~~
byte *mapped_ptr= (byte *)share->mapped_file + current_position;
~~~
~~~
byte *end_ptr;
~~~
~~~
DBUG_ENTER("ha_tina::find_current_row");
~~~
~~~
~~~
~~~
/* EOF should be counted as new line */
~~~
~~~
if ((end_ptr= find_eoln(share->mapped_file, current_position,
~~~
~~~
share->file_stat.st_size)) == 0)
~~~
~~~
DBUG_RETURN(HA_ERR_END_OF_FILE);
~~~
~~~
~~~
~~~
for (Field **field=table->field ; *field ; field++)
~~~
~~~
{
~~~
~~~
buffer.length(0);
~~~
~~~
mapped_ptr++; // Increment past the first quote
~~~
~~~
for(;mapped_ptr != end_ptr; mapped_ptr++)
~~~
~~~
{
~~~
~~~
// Need to convert line feeds!
~~~
~~~
if (*mapped_ptr == '"' &&
~~~
~~~
(((mapped_ptr[1] == ',') && (mapped_ptr[2] == '"')) ||
~~~
~~~
(mapped_ptr == end_ptr -1 )))
~~~
~~~
{
~~~
~~~
mapped_ptr += 2; // Move past the , and the "
~~~
~~~
break;
~~~
~~~
}
~~~
~~~
if (*mapped_ptr == '\\' && mapped_ptr != (end_ptr - 1))
~~~
~~~
{
~~~
~~~
mapped_ptr++;
~~~
~~~
if (*mapped_ptr == 'r')
~~~
~~~
buffer.append('\r');
~~~
~~~
else if (*mapped_ptr == 'n' )
~~~
~~~
buffer.append('\n');
~~~
~~~
else if ((*mapped_ptr == '\\') || (*mapped_ptr == '"'))
~~~
~~~
buffer.append(*mapped_ptr);
~~~
~~~
else /* This could only happed with an externally created file */
~~~
~~~
{
~~~
~~~
buffer.append('\\');
~~~
~~~
buffer.append(*mapped_ptr);
~~~
~~~
}
~~~
~~~
}
~~~
~~~
else
~~~
~~~
buffer.append(*mapped_ptr);
~~~
~~~
}
~~~
~~~
(*field)->store(buffer.ptr(), buffer.length(), system_charset_info);
~~~
~~~
}
~~~
~~~
next_position= (end_ptr - share->mapped_file)+1;
~~~
~~~
/* Maybe use \N for null? */
~~~
~~~
memset(buf, 0, table->s->null_bytes); /* We do not implement nulls! */
~~~
~~~
~~~
~~~
DBUG_RETURN(0);
~~~
~~~
}
~~~
### 16.10. 关闭表
当MySQL服务器完成表操作时,它将调用[close()](# "16.14.2. close")方法关闭文件指针并释放任何其他资源。
对于使用共享访问方法的存储引擎(如CSV引擎和其他示例引擎中显示的方法),必须将它们自己从共享结构中删除:
~~~
int ha_tina::close(void)
~~~
~~~
{
~~~
~~~
DBUG_ENTER("ha_tina::close");
~~~
~~~
DBUG_RETURN(free_share(share));
~~~
~~~
}
~~~
对于使用其自己共享管理系统的存储引擎,应使用任何所需的方法,在它们的处理程序中,从已打开表的共享区删除处理程序实例。
### 16.11. 为存储引擎添加对INSERT的支持``
一旦在你的存储引擎中有了读支持,下一个需要实施的特性是对INSERT语句的支持。有了INSERT支持,存储引擎就能处理WORM(写一次,读多次)应用程序,如用于以后分析的日志和归档应用等。
所有的INSERT操作均是通过[write_row()](# "16.14.14. write_row")函数予以处理的:
~~~
int ha_foo::write_row(byte *buf)
~~~
*buf参数包含将要插入的行,采用内部MySQL格式。基本的存储引擎将简单地前进到数据文件末尾,并直接在末尾处添加缓冲的内容,这样就能使行读取变得简单,这是因为,你可以读取行并将其直接传递到rnd_next()函数的缓冲参数中。
写入行的进程与读取行的进程相反:从MySQL内部行格式获取数据,并将其写入数据文件。下述示例来自CSV存储引擎:
~~~
int ha_tina::write_row(byte * buf)
~~~
~~~
{
~~~
~~~
int size;
~~~
~~~
DBUG_ENTER("ha_tina::write_row");
~~~
~~~
~~~
~~~
statistic_increment(table->in_use->status_var.ha_write_count, &LOCK_status);
~~~
~~~
~~~
~~~
if (table->timestamp_field_type & TIMESTAMP_AUTO_SET_ON_INSERT)
~~~
~~~
table->timestamp_field->set_time();
~~~
~~~
~~~
~~~
size= encode_quote(buf);
~~~
~~~
~~~
~~~
if (my_write(share->data_file, buffer.ptr(), size, MYF(MY_WME | MY_NABP)))
~~~
~~~
DBUG_RETURN(-1);
~~~
~~~
~~~
~~~
if (get_mmap(share, 0) > 0)
~~~
~~~
DBUG_RETURN(-1);
~~~
~~~
DBUG_RETURN(0);
~~~
~~~
}
~~~
前述示例中的两条注释包括,更新关于写入操作的表统计,以及在写入行之前设置时间戳。
### 16.12. 为存储引擎添加对UPDATE的支持``
通过执行表扫描操作,在找到与UPDATE语句的WHERE子句匹配的行后,MySQL服务器将执行UPDATE语句,然后调用[update_row()函数](# "16.14.13. update_row"):
~~~
int ha_foo::update_row(const byte *old_data, byte *new_data)
~~~
*old_data参数包含更新前位于行中的数据,而*new_data参数包含行的新内容(采用MySQL内部行格式)。
更新的执行取决于行格式和存储实施方式。某些存储引擎将替换恰当位置的数据,而其他实施方案则会删除已有的行,并在数据文件末尾添加新行。
非事务性存储引擎通常会忽略*old_data参数的内容,仅处理*new_data缓冲。事务性存储引擎可能需要比较缓冲,以确定在上次回滚中出现了什么变化。
如果正在更新的表中包含时间戳列,对时间戳的更新将由update_row()调用管理。下述示例来自CSV引擎:
~~~
int ha_tina::update_row(const byte * old_data, byte * new_data)
~~~
~~~
{
~~~
~~~
int size;
~~~
~~~
DBUG_ENTER("ha_tina::update_row");
~~~
~~~
~~~
~~~
statistic_increment(table->in_use->status_var.ha_read_rnd_next_count,
~~~
~~~
&LOCK_status);
~~~
~~~
~~~
~~~
if (table->timestamp_field_type & TIMESTAMP_AUTO_SET_ON_UPDATE)
~~~
~~~
table->timestamp_field->set_time();
~~~
~~~
~~~
~~~
size= encode_quote(new_data);
~~~
~~~
~~~
~~~
if (chain_append())
~~~
~~~
DBUG_RETURN(-1);
~~~
~~~
~~~
~~~
if (my_write(share->data_file, buffer.ptr(), size, MYF(MY_WME | MY_NABP)))
~~~
~~~
DBUG_RETURN(-1);
~~~
~~~
DBUG_RETURN(0);
~~~
~~~
}
~~~
请注意上例中的时间戳设置。
### 16.13. 为存储引擎添加对DELETE的支持``
MySQL服务器采用了与INSERT语句相同的方法来执行DELETE语句:服务器使用rnd_next()函数跳到要删除的行,然后调用[delete_row()](# "16.14.4. delete_row")函数删除行。
~~~
int ha_foo::delete_row(const byte *buf)
~~~
*buf参数包含要删除行的内容。对于大多数存储引擎,该参数可被忽略,但事务性存储引擎可能需要保存删除的数据,以供回滚操作使用。
下述示例来自CSV存储引擎:
~~~
int ha_tina::delete_row(const byte * buf)
~~~
~~~
{
~~~
~~~
DBUG_ENTER("ha_tina::delete_row");
~~~
~~~
statistic_increment(table->in_use->status_var.ha_delete_count,
~~~
~~~
&LOCK_status);
~~~
~~~
~~~
~~~
if (chain_append())
~~~
~~~
DBUG_RETURN(-1);
~~~
~~~
~~~
~~~
--records;
~~~
~~~
~~~
~~~
DBUG_RETURN(0);
~~~
~~~
}
~~~
前述示例的步骤是更新delete_count统计,并记录计数。
### 16.14. API引用
[16.14.1. bas_ext](#)[16.14.2. close](#)[16.14.3. create](#)[16.14.4. delete_row](#)[16.14.5. delete_table](#)[16.14.6. external_lock](#)[16.14.7. extra](#)[16.14.8. info](#)[16.14.9. open](#)[16.14.10. rnd_init](#)[16.14.11. rnd_next](#)[16.14.12. store_lock](#)[16.14.13. update_row](#)[16.14.14. write_row](#)
### 16.14.1. bas_ext
#### 目的
定义存储引擎所使用的文件扩展。
#### 概要
| virtual const char ** **bas_ext** ( | ); | |
|-----|-----|-----|
| | ; |
|-----|-----|
#### 描述
这是bas_ext方法。调用它,可为MySQL服务器提供存储引擎所使用的文件扩展列表。该列表将返回以Null终结的字符串数组。
通过提供扩展列表,在很多情况下,存储引擎能省略[delete_table()](# "16.14.5. delete_table")函数,这是因为MySQL服务器将关闭所有对表的引用,并使用指定的扩展删除所有文件。
#### 参数
该函数无参数。
#### 返回值
-
返回值是存储引擎扩展的以Null终结的字符串数组。下面给出了CSV引擎的示例:
~~~
static const char *ha_tina_exts[] =
{
".CSV",
NullS
};
~~~
#### 用法
~~~
static const char *ha_tina_exts[] =
{
".CSV",
NullS
};
const char **ha_tina::bas_ext() const
{
return ha_tina_exts;
}
~~~
#### 默认实施
~~~
static const char *ha_example_exts[] = {
NullS
};
const char **ha_example::bas_ext() const
{
return ha_example_exts;
}
~~~
### 16.14.2. close
#### 目的
关闭打开的表。
#### 概要
| virtual int **close** ( | void); | |
|-----|-----|-----|
| | void ; |
|-----|-----|
#### 描述
这是close方法。
关闭表。这是释放任何已分配资源的恰当时机。
从sql_base.cc、sql_select.cc和table.cc调用它。在sql_select.cc中,它仅用于关闭临时表,或在将临时表转换为myisam表的过程中关闭表。关于sql_base.cc,请查看close_data_tables()。
#### 参数
-
void
#### 返回值
无返回值。
#### 用法
取自CSV引擎的示例:
~~~
int ha_example::close(void)
{
DBUG_ENTER("ha_example::close");
DBUG_RETURN(free_share(share));
}
~~~
### 16.14.3. create
#### 目的
创建新表。
#### 概要
| virtual int **create** ( | name, | |
|-----|-----|-----|
| | form, | |
| | info); | |
| const char * | name ; |
|-----|-----|
| TABLE * | form ; |
| HA_CREATE_INFO * | info ; |
#### 描述
这是create方法。
调用create()以创建表。变量名称为表的名称。调用create()时,不需要打开表。此外,由于已创建了.frm文件,不推荐调整create_info。
由ha_create_table()从handle.cc中调用。
#### 参数
-
name
-
form
-
info
#### 返回值
无返回值。
#### 用法
CSV搜索引擎示例:
~~~
int ha_tina::create(const char *name, TABLE *table_arg,
HA_CREATE_INFO *create_info)
{
char name_buff[FN_REFLEN];
File create_file;
DBUG_ENTER("ha_tina::create");
if ((create_file= my_create(fn_format(name_buff, name, "", ".CSV",
MY_REPLACE_EXT|MY_UNPACK_FILENAME),0,
O_RDWR | O_TRUNC,MYF(MY_WME))) < 0)
DBUG_RETURN(-1);
my_close(create_file,MYF(0));
DBUG_RETURN(0);
}
~~~
### 16.14.4. delete_row
#### 目的
删除行。
#### 概要
| virtual int **delete_row** ( | buf); | |
|-----|-----|-----|
| const byte * | buf ; |
|-----|-----|
#### 描述
这是delete_row方法。
*Buf*包含删除行的副本。调用了当前行后,服务器将立刻调用它(通过前一个rnd_next()或索引调用)。如果存在指向上一行的指针,或能够访问 主键,删除操作将更为容易。请记住,服务器不保证连续删除。可以使用ORDER BY子句。
在sql_acl.cc和sql_udf.cc中调用,以管理内部的表信息。在sql_delete.cc、sql_insert.cc和sql_select.cc中调用。在sql_select中,它用于删除副本,而在插入操作中,它用于REPLACE调用。
#### 参数
-
buf
#### 返回值
无返回值。
#### 用法
~~~
~~~
#### 默认实施
~~~
{ return HA_ERR_WRONG_COMMAND; }
~~~
### 16.14.5. delete_table
#### 目的
用来自[bas_ext()](# "16.14.1. bas_ext")的扩展删除所有文件。
#### 概要
| virtual int **delete_table** ( | name); | |
|-----|-----|-----|
| const char * | name ; |
|-----|-----|
#### 描述
这是delete_table方法。
用于删除表。调用delete_table()时,所有已打开的对该表的引用均将被关闭(并释放全局共享的引用)。变量名称为表名。此时,需要删除任何已创建的文件。
如果未实施它,将从handler.cc调用默认的delete_table(),并用bas_ext()返回的文件扩展删除所有文件。假定处理程序返回的扩展比文件实际使用的多。
由delete_table和ha_create_table()从handler.cc调用。如果为存储引擎指定了table_flagHA_DROP_BEFORE_CREATE,仅在创建过程中使用。
#### 参数
-
name: 表的基本名称
#### 返回值
· 如果成功地从base_ext删除了至少1个文件而且未出现除ENOENT之外的错误,返回0。
· #: Error
#### 用法
大多数存储引擎均会忽略该函数的实施。
### 16.14.6. external_lock
#### 目的
为事务处理表锁定。
#### 概要
| virtual int **external_lock** ( | thd, | |
|-----|-----|-----|
| | lock_type); | |
| THD * | thd ; |
|-----|-----|
| int | lock_type ; |
#### 描述
这是external_lock方法。
在lock.cc中“用于mysql的锁定函数”一节,给出了关于该议题的额外注释,值的一读。
在表上创建锁定。如果实施了能处理事务的存储引擎,请查看ha_berkely.cc,以了解如何执行该操作的方法。否则,应考虑在此调用flock()。
由lock_external()和unlock_external()从lock.cc中调用。也能由copy_data_between_tables()从sql_table.cc中调用。
#### 参数
-
thd
-
lock_type
#### 返回值
无返回值。
#### 默认实施
~~~
{ return 0; }
~~~
### 16.14.7. extra
#### 目的
将提示从服务器传递给存储引擎。
#### 概要
| virtual int **extra** ( | operation); | |
|-----|-----|-----|
| enum ha_extra_function | operation ; |
|-----|-----|
#### 描述
这是extra方法。
无论何时,当服务器希望将提示发送到存储引擎时,将调用extra()。MyISAM引擎实现了大多数提示。ha_innodb.cc给出了最详尽的提示列表。
#### 参数
-
operation
#### 返回值
无返回值。
#### 用法
~~~
~~~
#### 默认实施
默认情况下,存储引擎倾向于不实施任何提示。
~~~
{ return 0; }
~~~
### 16.14.8. info
#### 目的
提示存储引擎通报统计信息。
#### 概要
| virtual void **info** ( | uint); | |
|-----|-----|-----|
| | uint ; |
|-----|-----|
#### 描述
这是info方法。
::info()用于将信息返回给优化程序。目前,该表处理程序未实施实际需要的大多数字段。SHOW也能利用该数据。注意,或许你打算在你的代码中包含下述内容“if (records > 2) records = 2”。原因在于,服务器仅优化具有一条记录的情形。如果在表扫描过程中,你不清楚记录的数目,最好将记录数设为2,以便能够返回尽可能多的所需记录。除了记录外,你或许还希望设置其他变量,包括:删除的记录,data_file_length,index_file_length,delete_length,check_time。更多信息,请参见handler.h中的公共变量。
在下述文件中调用:filesort.cc ha_heap.cc item_sum.cc opt_sum.cc sql_delete.cc sql_delete.cc sql_derived.cc sql_select.cc sql_select.cc sql_select.cc sql_select.cc sql_select.cc sql_show.cc sql_show.cc sql_show.cc sql_show.cc sql_table.cc sql_union.cc sql_update.cc
#### 参数
-
uint
#### 返回值
无返回值。
#### 用法
该示例取自CSV存储引擎:
~~~
void ha_tina::info(uint flag)
{
DBUG_ENTER("ha_tina::info");
/* This is a lie, but you don't want the optimizer to see zero or 1 */
if (records < 2)
records= 2;
DBUG_VOID_RETURN;
}
~~~
### 16.14.9. open
#### 目的
打开表。
#### 概要
| virtual int **open** ( | name, | |
|-----|-----|-----|
| | mode, | |
| | test_if_locked); | |
| const char * | name ; |
|-----|-----|
| int | mode ; |
| uint | test_if_locked ; |
#### 描述
这是open方法。
用于打开表。名称是文件的名称。在需要打开表时打开它。例如,当请求在表上执行选择操作时(对于每一请求,表未打开并被关闭,对其进行高速缓冲处理)。
由handler::ha_open()从handler.cc中调用。通过调用ha_open(),然后调用处理程序相关的open(),服务器打开所有表。
对于处理程序对象,将作为初始化的一部分并在将其用于正常查询之前打开它(并非总在元数据变化之前)。如果打开了对象,在删除之前还将关闭它。
这是open方法。调用open以打开数据库表。
第1个参数是要打开的表的名称。第2个参数决定了要打开的文件或将要执行的操作。这类值定义于handler.h中,为了方便起见在此列出:
~~~
#define HA_OPEN_KEYFILE 1
~~~
~~~
#define HA_OPEN_RNDFILE 2
~~~
~~~
#define HA_GET_INDEX 4
~~~
~~~
#define HA_GET_INFO 8 /* do a ha_info() after open */
~~~
~~~
#define HA_READ_ONLY 16 /* File opened as readonly */
~~~
~~~
#define HA_TRY_READ_ONLY 32 /* Try readonly if can't open with read and write */
~~~
~~~
#define HA_WAIT_IF_LOCKED 64 /* Wait if locked on open */
~~~
~~~
#define HA_ABORT_IF_LOCKED 128 /* skip if locked on open.*/
~~~
~~~
#define HA_BLOCK_LOCK 256 /* unlock when reading some records */
~~~
~~~
#define HA_OPEN_TEMPORARY 512
~~~
~~~
~~~
最后的选项规定了在打开表之前是否应检查表上的锁定。
典型情况下,存储引擎需要实现某种形式的共享访问控制,以防止多线程环境下的文件损坏。关于如何实现文件锁定的示例,请参见sql/examples/ha_tina.cc的get_share()和free_share()方法。
#### 参数
-
name
-
mode
-
test_if_locked
#### 返回值
无返回值。
#### 用法
该示例取自CSV存储引擎:
~~~
int ha_tina::open(const char *name, int mode, uint test_if_locked)
{
DBUG_ENTER("ha_tina::open");
if (!(share= get_share(name, table)))
DBUG_RETURN(1);
thr_lock_data_init(&share->lock,&lock,NULL);
ref_length=sizeof(off_t);
DBUG_RETURN(0);
}
~~~
### 16.14.10. rnd_init
#### 目的
为表扫描功能初始化处理程序。
#### 概要
| virtual int **rnd_init** ( | scan); | |
|-----|-----|-----|
| bool | scan ; |
|-----|-----|
#### 描述
这是rnd_init方法。
当系统希望存储引擎执行表扫描时,将调用rnd_init()。
与index_init()不同,rnd_init()可以调用两次,两次调用之间不使用rnd_end()(仅当scan=1时才有意义)。随后,第2次调用应准备好新的表扫描。例如,如果rnd_init分配了光标,第2次调用应将光标定位于表的开始部分,不需要撤销分配并再次分配。
从下述文件调用:filesort.cc, records.cc, sql_handler.cc, sql_select.cc, sql_table.cc, 和sql_update.cc。
#### 参数
-
scan
#### 返回值
无返回值。
#### 用法
该示例取自CSV存储引擎:
~~~
int ha_tina::rnd_init(bool scan)
{
DBUG_ENTER("ha_tina::rnd_init");
current_position= next_position= 0;
records= 0;
chain_ptr= chain;
DBUG_RETURN(0);
}
~~~
### 16.14.11. rnd_next
#### 目的
从表中读取下一行,并将其返回服务器。
#### 概要
| virtual int **rnd_next** ( | buf); | |
|-----|-----|-----|
| byte * | buf ; |
|-----|-----|
#### 描述
这是rnd_next方法。
对于表扫描的每一行调用它。耗尽记录时,应返回HA_ERR_END_OF_FILE。用行信息填充buff。表的字段结构是以服务器能理解的方式将数据保存到buf中的键。
从下述文件调用:filesort.cc, records.cc, sql_handler.cc, sql_select.cc, sql_table.cc, 和sql_update.cc。
#### 参数
-
buf
#### 返回值
无返回值。
#### 用法
下述示例取自ARCHIVE存储引擎:
~~~
int ha_archive::rnd_next(byte *buf)
{
int rc;
DBUG_ENTER("ha_archive::rnd_next");
if (share->crashed)
DBUG_RETURN(HA_ERR_CRASHED_ON_USAGE);
if (!scan_rows)
DBUG_RETURN(HA_ERR_END_OF_FILE);
scan_rows--;
statistic_increment(table->in_use->status_var.ha_read_rnd_next_count,
&LOCK_status);
current_position= gztell(archive);
rc= get_row(archive, buf);
if (rc != HA_ERR_END_OF_FILE)
records++;
DBUG_RETURN(rc);
}
~~~
### 16.14.12. store_lock
#### 目的
创建和释放表锁定。
#### 概要
| virtual THR_LOCK_DATA ** **store_lock** ( | thd, | |
|-----|-----|-----|
| | to, | |
| | lock_type); | |
| THD * | thd ; |
|-----|-----|
| THR_LOCK_DATA ** | to ; |
| enum thr_lock_type | lock_type ; |
#### 描述
这是store_lock方法。
下面介绍了关于handler::store_lock()的概念:
该语句决定了在表上需要何种锁定。对于updates/deletes/inserts,我们得到WRITE锁定;对于SELECT...,我们得到读锁定。
将锁定添加到表锁定处理程序之前(请参见thr_lock.c),mysqld将用请求的锁定调用存储锁定。目前,存储锁定能将写锁定更改为读锁定(或某些其他锁定),忽略锁定(如果不打算使用MySQL表锁定),或为很多表添加锁定(就像使用MERGE处理程序时那样)。
例如,Berkeley DB能够将所有的WRITE锁定更改为TL_WRITE_ALLOW_WRITE(表明正在执行WRITES操作,但我们仍允许其他人执行操作)。
释放锁定时,也将调用store_lock()。在这种情况下,通常不需要作任何事。
在某些特殊情况下,MySQL可能会发送对TL_IGNORE的请求。这意味着我们正在请求与上次相同的锁定,这也应被忽略(当我们打开了表的某一部分时,如果其他人执行了表刷新操作,就会出现该情况,此时,mysqld将关闭并再次打开表,然后获取与上次相同的锁定)。我们打算在将来删除该特性。
由get_lock_data()从lock.cc中调用。
#### 参数
-
thd
-
to
-
lock_type
#### 返回值
无返回值。
#### 用法
下述示例取自ARCHIVE存储引擎:
~~~
/*
Below is an example of how to setup row level locking.
*/
THR_LOCK_DATA **ha_archive::store_lock(THD *thd,
THR_LOCK_DATA **to,
enum thr_lock_type lock_type)
{
if (lock_type == TL_WRITE_DELAYED)
delayed_insert= TRUE;
else
delayed_insert= FALSE;
if (lock_type != TL_IGNORE && lock.type == TL_UNLOCK)
{
/*
Here is where we get into the guts of a row level lock.
If TL_UNLOCK is set
If we are not doing a LOCK TABLE or DISCARD/IMPORT
TABLESPACE, then allow multiple writers
*/
if ((lock_type >= TL_WRITE_CONCURRENT_INSERT &&
lock_type <= TL_WRITE) && !thd->in_lock_tables
&& !thd->tablespace_op)
lock_type = TL_WRITE_ALLOW_WRITE;
/*
In queries of type INSERT INTO t1 SELECT ... FROM t2 ...
MySQL would use the lock TL_READ_NO_INSERT on t2, and that
would conflict with TL_WRITE_ALLOW_WRITE, blocking all inserts
to t2. Convert the lock to a normal read lock to allow
concurrent inserts to t2.
*/
if (lock_type == TL_READ_NO_INSERT && !thd->in_lock_tables)
lock_type = TL_READ;
lock.type=lock_type;
}
*to++= &lock;
return to;
}
~~~
### 16.14.13. update_row
#### 目的
更新已有行的内容。
#### 概要
| virtual int **update_row** ( | old_data, | |
|-----|-----|-----|
| | new_data); | |
| const byte * | old_data ; |
|-----|-----|
| byte * | new_data ; |
#### 描述
这是update_row方法。
old_data将保存前一行的记录,而new_data将保存最新的数据。
如果使用了ORDER BY子句,服务器能够根据排序执行更新操作。不保证连续排序。
目前,new_data不会拥有已更新的auto_increament记录,或已更新的时间戳字段。你可以通过下述方式(例如)完成该操作:if (table->timestamp_field_type & TIMESTAMP_AUTO_SET_ON_UPDATE) table->timestamp_field->set_time(); if (table->next_number_field && record == table->record[0]) update_auto_increment();
从sql_select.cc, sql_acl.cc, sql_update.cc和sql_insert.cc调用。
#### 参数
-
old_data
-
new_data
#### 返回值
无返回值。
#### 用法
~~~
~~~
#### 默认实施
~~~
{ return HA_ERR_WRONG_COMMAND; }
~~~
### 16.14.14. write_row
#### 目的
为表添加新行。
#### 概要
| virtual int **write_row** ( | buf); | |
|-----|-----|-----|
| byte * | buf ; |
|-----|-----|
#### 描述
这是write_row方法。
write_row()用于插入行。目前,如果出现大量加载,不会给出任何[extra()](# "16.14.7. extra")提示。buf是数据的字节数组,大小为table->s->reclength。
可以使用字段信息从本地字节数组类型提取数据。例如:
for (Field **field=table->field ; *field ; field++) { ... }
BLOB必须特殊处理:
~~~
~~~
~~~
for (ptr= table->s->blob_field, end= ptr + table->s->blob_fields ; ptr != end ; ptr++)
~~~
~~~
{
~~~
~~~
char *data_ptr;
~~~
~~~
uint32 size= ((Field_blob*)table->field[*ptr])->get_length();
~~~
~~~
((Field_blob*)table->field[*ptr])->get_ptr(&data_ptr);
~~~
~~~
...
~~~
~~~
}
~~~
关于以字符串形式提取所有数据的示例,请参见ha_tina.cc。在ha_berkeley.cc中,对于ha_berkeley自己的本地存储类型,给出了一个通过“包装功能”完整保存它的例子。
请参见update_row()关于auto_increments和时间戳的注释。该情形也适用于write_row()。
从item_sum.cc、item_sum.cc、sql_acl.cc、sql_insert.cc、sql_insert.cc、sql_select.cc、sql_table.cc、sql_udf.cc、以及sql_update.cc调用。
#### 参数
-
数据的buf字节数组
#### 返回值
无返回值。
#### 用法
~~~
~~~
#### 默认实施
~~~
{ return HA_ERR_WRONG_COMMAND; }
~~~
这是MySQL参考手册的翻译版本,关于MySQL参考手册,请访问[dev.mysql.com](http://dev.mysql.com/doc/mysql/en)。 原始参考手册为英文版,与英文版参考手册相比,本翻译版可能不是最新的。
- 目录
- 前言
- 1. 一般信息
- 2. 安装MySQL
- 3. 教程
- NoName
- 4. MySQL程序概述
- 5. 数据库管理
- 6. MySQL中的复制
- 7. 优化
- 8. 客户端和实用工具程序
- 9. 语言结构
- 10. 字符集支持
- 11. 列类型
- 12. 函数和操作符
- 13. SQL语句语法
- 14. 插件式存储引擎体系结构
- 15. 存储引擎和表类型
- 16. 编写自定义存储引擎
- 17. MySQL簇
- 18. 分区
- 19. MySQL中的空间扩展
- 20. 存储程序和函数
- 21. 触发程序
- 22. 视图
- 23. INFORMATION_SCHEMA信息数据库
- 24. 精度数学
- 25. API和库
- 26. 连接器
- 27. 扩展MySQL
- A. 问题和常见错误
- B. 错误代码和消息
- C. 感谢
- D. MySQL变更史
- E. 移植到其他系统
- F. 环境变量
- G. MySQL正则表达式
- H. MySQL中的限制
- I. 特性限制
- J. GNU通用公共许可
- K. MySQL FLOSS许可例外
- 索引