企业🤖AI智能体构建引擎,智能编排和调试,一键部署,支持私有化部署方案 广告
## 背景 最近在Aliyun RDS的环境上,有些用户碰到了打开文件句柄数过多的错误,查看用户实例的打开句柄个数,确实超过了系统设置的值,一旦出现了这种错误,将会带来连锁的各种错误(取决于当时正在操作什么类型的文件,以及什么操作)。下面,我们就一起来看一下MySQL在操作过程中,牵涉到文件打开和关闭的关键点,以及你一直以来可能存在的认识误区。 ## 参数和名词 关联参数 我们先列一下几个关键的参数,不了解的可以先参考官方文档,我们假设在MySQL 5.6版本上,主要针对InnoDB表。 ~~~ open_file_limits table_open_cache table_definition_cache innodb_file_per_table innodb_open_files ~~~ open_file_limits的设置的值,mysqld会通过setrlimit系统调用来初始化本进程可以使用的最大文件句柄数。 而另外的四个参数的设置,对打开的文件数产生什么影响?我们稍后分析。 关联名词 下面列出的名称,是在MySQL源代码中出现的,能帮助我们更好的理解参数的设置: * table:MySQL操作一张表时建的对象,table_open_cache参数控制缓存的对象就是table; * table_share:MySQL对一张表的定义建的对象, table_definition_cache参数控制缓存的对象就是table_share; * handler:引擎句柄,和table是一对一的关系,每一种引擎都实现自己的handler,这也是MySQL支持多引擎的关键; * innobase_share:InnoDB引擎层对应的表定义对象; * dict_table:InnoDB引擎对应的表结构定义; * fil_tablespace:InnoDB引擎层对应的表空间,当设置innodb_file_per_table=ON的时候,每一个InnoDB表对应一个表空间; * fil_node:表空间对应的节点,如果一个表空间对应多个文件,比如logfile,那么就tablespace和node就是一对多的关系。 对照着上面提到的参数和名称,下面来看几个场景。 ## 3\. 场景 我们把一个简单的select语句在MySQL中的操作分为三个过程,open/read/close。 open过程 当操作某张表的时候,比如select * from test; 1. 首先初始化一个table_share对象: * 如果对象在table_definition_cache中存在,就直接引用; * 如果不存在,就打开test.frm,读取表结构的定义,创建table_share对象,然后就关闭了test.frm。所以,这一步只在table_definition_cache未命中的时候,才open/close frm文件,并不占用太久的句柄。 2. 然后创建table对象: * 如果在table_open_cache中存在unused_table, 就直接使用; * 如果不存在,就会创建table对象,这里并不牵涉到文件操作。 server层所需要的对象已经创建完毕,下面是InnoDB层: 1. 首先创建InnoDB handler 和Innobase_share 对象,这一步仅仅是内存对象,不牵涉文件操作。 2. 然后load dict_table对象: * 如果在dictionary cache中存在dict_table,就直接引用; * 如果不存在,InnoDB会读取系统表空间(ibdata)的SYS_TABLES表,读取InnoDB记录的表结构定义,同时还会读取SYS_INDEXES, SYS_COLUMN, SYS_FOREIGN 等和表关联的定义。 注:这里会牵涉到数据字典的读取操作,但因为ibdata文件从系统启动的时候,就一直处在打开状态,并且不能关闭,所以这里也没有打开新的文件操作。 3. 最后load test表空间,在fil_system的缓存中查找: 如果存在,就直接使用,如果不存在,会读取SYS_DATAFILES系统字典表,并打开第一个文件,这里只有一个文件test.ibd,读取segment header验证space id,验证成功,就创建了file_tablespace和fil_node对象。 注:这里会打开test.ibd文件,验证完tablespace id就会关闭。 结论 这里我们发现,在读取一张表的之前的open过程,虽然有open file的动作,但都是用于初始化定义、结构等信息。所以table_open_cache, table_definition_cache并不会对open_file_limits有什么影响。而innodb_file_per_table的设置,只是增加了open file超过limit的几率,并不会有直接的影响。 read 过程 open完成后,当select需要扫描BTree结构上的某一个leaf page,而buffer pool未命中的时候,会发起IO操作: InnoDB会通过fil_node对象里的file handler进行IO操作,但这里每次open file的时候,会进行innodb_open_files判断。如果当前InnoDB打开的文件数超过了innodb_open_files,就会强制关闭一些文件,在fil_system全局结构中有一个LRU链表,这里保存了所有打开的用户表空间文件句柄,并且当前没有任何IO操作。系统可以安全的关闭一些文件句柄,以满足innodb_open_files的需要。 结论 对于InnoDB来说,innodb_open_files设置了一个安全的file limit,除非InnoDB发起的并发IO请求数过多,并且分散在不同的表空间上。 close过程 当语句完成后,会进行close动作: 1. 如果当前table cache大小没有超过table_open_cache,就把table缓存到cache中; 2. 如果table_share的ref_count,就是table引用次数减到0,说明没有table引用,并且超过了table_definition_cache,就从cache中删除; 3. 同样,innobase_share也根据ref_count来判断是否要缓存。InnoDB层的dict_table也缓存在dictionary cache中。 结论 close的过程,并没有文件的关闭动作,而仅仅是内存对象的缓存或者销毁的动作。 总体来看这三个过程:InnoDB所有和文件相关的对象、fil_tablespace、fil_node和语句、事务等一些生命周期并没有什么关系。所以语句的并发,事务的大小等等因素都不会引起文件打开数过多。 recovery过程 recovery的过程中,因为无法判断要应用的redo,所以会load fil_space一遍,会打开所有的ibd文件一遍,进行一次读取。但同样受限innodb_open_files的控制,同时打开文件数不能超过这个值。 不过5.7已经添加了一种新的redo类型MLOG_FILE_NAME ,来[优化recovery的过程](http://mysqlserverteam.com/innodb-crash-recovery-improvements-in-mysql-5-7/)。 系统启动 在系统启动的过程中,会初始化ibdata和logfile文件,这两类文件,是永久打开的,不受innodb_open_files限制,但数量有限。 从上面来看,InnoDB并不会引起这么明显的open files过多的问题,那问题究竟出现在哪里? ## 问题 在MySQL实例中还存在其他文件,比如用户连接创建的socket、binlog 文件、relay log文件、slow log等log文件。socket由max_connections来控制,log文件的打开数量有限。所以问题回到了MyISAM表上面,对于用户创建的MyISAM分区表,open的过程中,会把MYD文件全部打开,当分区过多的时候,open files数量就急剧上升,导致超过limit值。 ## flush table会关闭打开的文件吗? flush table操作,会把table cache中未使用的table close掉,前面我们看到close的操作,并不会产生文件关闭操作。不过MyISAM实现的handler的close函数,会把打开的文件句柄给关闭掉,所以flush table能够缓解open files过多的问题,但仅限于MyISAM,而InnoDB的文件打开/关闭逻辑并不受影响。 ## 总结 所以,对于用户实例的open file limit的设置问题,需要计算好连接数、系统文件、表文件等文件,另外建议使用InnoDB表来避免open files 暴涨的问题。