王立建SEO工作室十年经验老司机 提供企业网站优化排名服务 王立建 手机:18003190145 QQ:200898432

搜索引擎工作过程(1)网页收集

搜索引擎是通过蜘蛛程序对互联网中的网页进行抓取和收集的,网页收集是搜索引擎工作的第一步。了解搜索引擎的网页抓取机制,便于蜘蛛抓取更多的页面,使网站有更好的排名。

(1)什么是蜘蛛

网络爬虫又被称为网络蜘蛛、网络机器人,是指按照一定的规则,自动抓取互联网中网页的程序或者脚本。

(2)蜘蛛的工作方式

对于互联网中的网站来说,如果没有对其中的链接进行屏蔽设置,蜘蛛就可以通过链接在网站内或者网站间进行爬行和抓取。

由于互联网中的网站及页面链接结构异常复杂,蜘蛛需要采取一定的爬行策略才能抓取更多的页面。最简单的爬行策略有两种:一种是深度优先,另一种是广度优先。

广度优先是指蜘蛛会先抓取起始网页中链接的所有网页,然后再选择其中的一个链接网页,继续抓取在此网页中链接的所有网页。这是最常用的方式,因为这个方法可以让网络蜘蛛并行处理,提高其抓取速度。

深度优先是指蜘蛛会从起始页开始,一个链接一个链接跟踪下去,处理完这条线路之后再转入下一个起始页,继续跟踪链接。在深度优先策略中,蜘蛛一直爬到无法再向前,才返回爬行另一条线。

深度优先和广度优先通常是混合使用的,这样既可以照顾到尽量多的网站,也可以照顾到一部分网站的内页,同时也会考虑页面权重、网站规模、外链、更新等因素。而且搜索引擎为了提高爬行和抓取的速度,都是用多个蜘蛛并发分布爬行。

根据这一原理,石家庄SEO老司机在优化网站时,应该合理设置网站中的链接,便于蜘蛛更加顺利地爬行网站中的各个页面。

(3)认识种子站点

一些互联网中的网站被蜘蛛格外看重,蜘蛛的爬行也往往以这些网站作为起始站点。通常情况下,这类站点具有一定的权威性和导航性,如新浪、hao123等。这些具有权威性和导航性的网站称为种子站点。因此在优化网站时,可以在种子站点中添加自己网站的链接,增加蜘蛛抓取的入口。

(4)搜素引擎的收集机制

蜘蛛对于网站的抓取频率受网站更新周期的影响,若网站定期定量更新,那么蜘蛛会规律地进入网站中进行爬行和抓取。

蜘蛛每次爬行都会把页面数据存储起来,如果第二次爬行发现页面与第一次收录的完全一样,说明页面没有更新,多次抓取后蜘蛛会对页面更新频率有所了解。不常更新的页面,蜘蛛也就没有必要经常抓取。如果页面内容经常更新,蜘蛛就会更加频繁地访问这种页面,页面上出现的新链接,自然也会被蜘蛛更快地抓取。

因此在优化网站时,应该定期定量地更新内容,增加网站被抓取的频率。请阅读:据说SEO要每天“定时”更新文章?

(5)文件存储

搜索引擎蜘蛛抓取的页面存入原始数据库中。搜索引擎会对原始数据库中的页面进行相应的处理。