🔥码云GVP开源项目 12k star Uniapp+ElementUI 功能强大 支持多语言、二开方便! 广告
通⽤⽹络爬⾍是捜索引擎抓取系统(Baidu、Google、Yahoo等)的重要组成部分。主要⽬的是将互联⽹上的⽹⻚下载到本地,形成⼀个互联⽹内容的镜像备份。<br/> **通⽤搜索引擎(Search Engine)⼯作原理:** 通⽤⽹络爬⾍ 从互联⽹中搜集⽹⻚,采集信息,这些⽹⻚信息⽤于为搜索引擎 建⽴索引从⽽提供⽀持,它决定着整个引擎系统的内容是否丰富,信息是否即 时,因此其性能的优劣直接影响着搜索引擎的效果。<br/> **第⼀步:抓取网页** 搜索引擎⽹络爬⾍的基本⼯作流程如下: 1. ⾸先选取⼀部分的种⼦URL,将这些URL放⼊待抓取URL队列; 2. 取出待抓取URL,解析DNS得到主机的IP,并将URL对应的⽹⻚下载下来, 存储进已下载⽹⻚库中,并且将这些URL放进已抓取URL队列。 3. 分析已抓取URL队列中的URL,分析其中的其他URL,并且将URL放⼊待抓 取URL队列,从⽽进⼊下⼀个循环.... :-: ![](https://img.kancloud.cn/00/0b/000b2a605aecab2a99f04a016236c24e_335x450.png) 通用网络爬虫工作流程图 搜索引擎如何获取⼀个新⽹站的URL: (1)新⽹站向搜索引擎主动提交⽹址:(如百度 http://zhanzhang.baidu.com/linksubmit/url)。 (2)在其他⽹站上设置新⽹站外链(尽可能处于搜索引擎爬⾍爬取范围)。 (3)搜索引擎和DNS解析服务商(如DNSPod等)合作,新⽹站域名将被迅速抓取。<br/> <mark>Robots协议:</mark> Robots协议(也叫爬⾍协议、机器⼈协议等),全称是⽹络爬⾍排除标准(Robots Exclusion Protocol),⽹站通过Robots协议告诉搜索引擎哪些 ⻚⾯可以抓取,哪些⻚⾯不能抓取。 例如: 淘宝⽹:https://www.taobao.com/robots.txt 腾讯⽹: http://www.qq.com/robots.txt Robots协议只是一种君子约定,从技术层面来讲它不具备反爬虫功能。<br/> **第⼆步:数据存储** 搜索引擎通过爬⾍爬取到的⽹⻚,将数据存⼊原始⻚⾯数据库。其中的⻚⾯数 据与⽤户浏览器得到的HTML是完全⼀样的。 <br/> 搜索引擎蜘蛛在抓取⻚⾯时,也做⼀定的重复内容检测,⼀旦遇到访问权重很 低的⽹站上有⼤量抄袭、采集或者复制的内容,很可能就不再爬⾏。<br/> **第三步:预处理** 搜索引擎将爬⾍抓取回来的⻚⾯,进⾏各种步骤的预处理。 * 提取⽂字 * 中⽂分词 * 消除噪⾳(⽐如版权声明⽂字、导航条、⼴告等……) * 索引处理 * 链接关系计算 * 特殊⽂件处理 **第四步:提供检索服务,⽹站排名** 搜索引擎在对信息进⾏组织和处理后,为⽤户提供关键字检索服务,将⽤户检 索相关的信息展示给⽤户。 <br/> 同时会根据⻚⾯的PageRank值(链接的访问量排名)来进⾏⽹站排名,这样 Rank值⾼的⽹站在搜索结果中会排名较前,当然也可以直接使⽤ Money 购买 搜索引擎⽹站排名,简单粗暴。 ![](https://img.kancloud.cn/27/b1/27b1719afdcf42854d6f78775d8eb3b3_957x406.png) <br/>