多应用+插件架构,代码干净,二开方便,首家独创一键云编译技术,文档视频完善,免费商用码云13.8K 广告
客户端工具集 ~~~ mfsgetgoal #设定副本数 mfssetgoal #获取副本数 mfscopygoal # mfsgetsclass mfssetsclass mfscopysclass mfsxchgsclass mfslistsclass mfsgettrashtime #设定回收站时间 mfssettrashtime #设定回收站时间 mfscopytrashtime mfsgeteattr #设置权限 mfsseteattr #获取权限 mfsdeleattr mfscopyeattr mfsgetquota mfssetquota mfsdelquota mfscopyquota mfscheckfile #检查文件 mfsfileinfo #文件信息 mfsappendchunks mfsdirinfo #目录信息 mfsfilerepair #文件修复 mfsmakesnapshot #快照 mfsfilepaths mfschkarchive mfssetarchive mfsclrarchive mfsscadmin deprecated tools: // 递归设置 mfsrgetgoal = mfsgetgoal -r mfsrsetgoal = mfssetgoal -r mfsrgettrashtime = mfsgettreshtime -r mfsrsettrashtime = mfssettreshtime -r ~~~ mfsmaster运行目录下的文件介绍 ~~~ metadata.mfs.back #MFS元数据信息,延迟将内存数据写入文件,默认频率1h,默认1d同步一次此文件到metalogger server changelog.*.mfs #文件操作日志记录,实时记录、同步到metalogger server sessions.mfs #客户操作状态记录 stats.mfs #? ~~~ mfsmaster的权限管理(类似于nfs的exports文件) ~~~ vi /etc/mfs/mfsexports.cfg #客户端IP 允许挂载的目录 客户端拥有的权限 192.168.1.5 / rw,alldirs,maproot=0 # /标识MFS的根(读写的方式共享,允许挂载任何指定的子目录) 192.168.0.0/24 . rw # .标识MFSMETA 文件系统 #客户端 #目录部分需要注意两点 #权限部分 #* 所有客户机 / 标识MooseFS 根 ro 只读模式共享 #f.f.f.f 单个主机 . 表示MFSMETA 文件系统 rw 读写的方式共享 #f.f.f.f/p 某个子网段 alldirs 允许挂载任何指定的子目录 #f.f.f.f-d.d.d.d 某两个ip段区间 maproot 映射为root,还是指定的用户 password 指定客户端密码 ~~~ 客户端挂载文件系统(使用命令:mfsmount) ~~~ mfsmount可用参数 -H #接管理服务器IP -P #接管理服务器端口 -S #指出被挂接mfs 目录的子目录,默认是/目录,就是挂载整个mfs 目录 -m #这样可以挂载一个辅助的文件系统mfsmeta,辅助文件系统可以在如下两个方面恢复丢失的数据 ~~~ 设定数据副本数量 ~~~ #设定数据副本数量 #在客户挂载好的目录下创建,两个用于测试的目录 mkdir /data/test{1,2} #设置存放文件的份数 mfssetgoal 1 /data/test1 #注意:对于已经存在的文件不会改变其副本数,只对后续新写入的文件副本数生效 mfssetgoal -r 2 /data/test2 #此时所有已存在的文件及子目录副本数为2,并且新写入的文件和子目录的副本数也为2 #注意若是空文件,那么在后端chunk上是不会创建文件的,只会出现在元数据中 #注意:文件及目录所保留的真实副本数是依据数据存储服务器的数量,如果数据存储服服务器只有两台,但却为文件及目录设定了3个副本的话,最后的真实副本数为2 #复制文件到对应的目录 cp /etc/hosts /data/test1 cp /etc/hosts /data/test2 #验证1 [root@client68 ~]# mfsfileinfo /data/test1/hosts /data/test1/hosts: chunk 0: 0000000000000029_00000001 / (id:41 ver:1) copy 1: 192.168.1.65:9422 (status:VALID) [root@client68 ~]# mfsfileinfo /data/test2/hosts /data/test2/hosts: chunk 0: 000000000000002A_00000001 / (id:42 ver:1) copy 1: 192.168.1.66:9422 (status:VALID) copy 2: 192.168.1.67:9422 (status:VALID) #验证2 [root@client68 ~]# mfsgetgoal /data/ /data/: 2 [root@client68 ~]# mfsgetgoal /data/test1 /data/test1: 1 [root@client68 ~]# mfsgetgoal /data/test2 /data/test2: 2 ~~~ 设定垃圾回收站,回收时间(使用命令:mfssettrashtime ,可以使用-r 参数递归) ~~~ #一个被删除文件能够存放在一个“ 垃圾箱”的时间就是一个隔离时间, 这个时间可以用 mfsgettrashtime 命令来验证,也可以使用`mfssettrashtime 命令来设置 #设置删除文件最长保留时间,单位为秒(0:表示立即彻底删除,1小时:3600;1天:86400;一周:604800;1月:2592000) mfssettrashtime 64800 /data/test1 mfsgettrashtime /data/test1 #获取删除文件最长保留时间(验证) ~~~ 快照snapshot(使用命令:mfsmakesnapshot) ~~~ 快照snapshot(使用命令:mfsmakesnapshot) #可以给任何一个文件或目录树做快照,前提是必须是在mfs体系里的 #语法:mfsmakesnapshot src dst mfsmakesnapshot /data/test2/hosts /data/ #是在一次执行中整合了一个或是一组文件的拷贝,而且任何修改这些文件的源文件都不会影响到源文件的快照, 就是说任何对源文件的操作,例如写入源文件,将不会修改副本 a:对一个文件做snapshot后,查看两个文件的块,是同一个块。把原文件删除,原文件删除后(回收站中最初可以看到,但一段时间后,回收站中就彻底删除了),snapshot文件仍然存在,并且可以访问。使用mfsfileinfo查看,发现仍然是原来的块。 b:对一个文件做snapshot后,查看两个文件的块,是同一个块。把原文件修改后,发现原文件使用的块名变了,即使用的是一个新块。而snapshot文件仍然使用原来的块。 ~~~ 如何在回收站(trash)中将删除的数据恢复 ~~~ 如何在回收站(trash)中将删除的数据恢复 #思路:在垃圾箱有效时限内,挂载mfsmeta文件系统,定位到被删除的文件,将其移动到所在目录下的 undel 目录即可 1:确保垃圾箱的回收时间稍大一点,方便做实验 [root@client68 undel]# mfsgettrashtime /data/test1/ /data/test1/: 86400 2:创建文件,输入内容,然后保存,并删除 touch /data/test1/hello echo "我们是共产主义接班人" >> /data/test1/hello rm /data/test1/hello 3:先挂载mfsmeta文件系统 mount -m -H 192.168.1.61 /tmp/ceshi 4:定位文件(根据文件名) [root@client68 ~]# find /tmp/ceshi/trash/ -name "*hello*" /tmp/ceshi/trash/00F/0000000F|test1|hello 5:查看定位到文件内容(注意:一定要用单引号) [root@client68 ~]# cat '/tmp/ceshi/trash/00F/0000000F|test1|hello' test1/hello 6:恢复文件成功(移动这个文件到文件所在目录下的undel下面,将会使原始的文件恢复到正确的MFS文件系统原来的路径下) [root@client68 ~]# cd /tmp/ceshi/trash/00F [root@client68 00F]# ls 0000000F|test1|hello undel [root@client68 00F]# pwd /tmp/ceshi/trash/00F [root@client68 00F]# mv 0000000F\|test1\|hello ./undel/ [root@client68 00F]# ls /data/test1/ hello [root@client68 00F]# cat /data/test1/hello 我们是共产主义接班人 #注意:在恢复文件的时候,原来被删文件下面的目录下,不能有同名文件,不然恢复不成功 ~~~ MFS元数据备份 ~~~ 通常元数据有两部分的数据: #主要元数据文件metadata.mfs,当mfsmaster 运行的时候会被命名为metadata.mfs.back 元数据改变日志changelog.*.mfs,存储了过去的N 小时的文件改变(N 的数值是由BACK_LOGS参数设置的,参数的设置在mfschunkserver.cfg 配置文件中)。 #主要的元数据文件需要定期备份,备份的频率取决于取决于多少小时changelogs 储存。元数据changelogs 实时的自动复制。1.6版本中这个工作都由metalogger完成。 ~~~ MFSMaster的恢复 ~~~ #需要最后一个元数据日志changelog 并入主要的metadata 中。这个操作时通过 mfsmetarestore 工具做的 #先修复(几次测试发现:如果mfsmetarestore -a无法修复,则使用metalogger也无法修复) mfsmetarestore -a #如果master 数据被存储在MooseFS 编译指定地点外的路径,则要利用-d 参数指定使用,如: mfsmetarestore -a -d /opt/mfsmaster #再启动(才能成功) #强制使用metadata.mfs.back创建metadata.mfs,可以启动master,但应该会丢失1小时的数据。 #明确表示会丢失故障点到上一个整点之间的数据。和之前我猜测的一致。因为对mfs的操作日志都记录到changelog.0.mfs里面。changelog.0.mfs每小时合并一次到metadata.mfs中,如果突然断电,则changelog.0.mfs里面的信息就没有合并到metadata中,强制使用metadata.mfs.back创建metadata.mfs,就会导致丢失changelog.0.mfs里的数据。 ~~~ 从MetaLogger中恢复Master ~~~ #在MetaLogger上,使用mfsmetarestore -a 命令,合并changelogs,然后将其角色提升为mfsmaster. #强制使用metadata.mfs.back创建metadata.mfs,可以启动master,但丢失的数据暂无法确定 ~~~