1. 首页
  2. seo技巧

搜索引擎的工作原理鲁大师seo

  成都seo:搜索引擎的工作原理

  搜索引擎基本上是我们打开浏览器第一个要打开的网站,没有之一,别问我为什么,因为我就是这。随着网络发展,网络上产生的内容也越来越多,但是我们怎么才能轻易的看到呢?这就直接的导致了搜索引擎的诞生,我们做seo网络推广,首先得知道它的工作原理,然后才好有针对性的去投其所好,最后达到网站排名的提升。那么它的具体工作原理是什么呢?
搜索引擎的工作原理

  搜索引擎的基本工作原理包括如下三个过程:首先在互联网中发现、搜集网页信息;同时对信息进行提取和组织建立索引库;再由检索器根据用户输入的查询关键字,在索引库中快速检出文档,进行文档与查询的相关度评价,对将要输出的结果进行排序,并将查询结果返回给用户。

  zac大神的书上是这么写的:爬行和抓取、预处理、排名。

  1、抓取网页。每个独立的搜索引擎都有自己的网页抓取程序爬虫(spider)。爬虫Spider顺着网页中的超链接,从这个网站爬到另一个网站,通过超链接分析连续访问抓取更多网页。被抓取的网页被称之为网页快照。由于互联网中超链接的应用很普遍,理论上,从一定范围的网页出发,就能搜集到绝大多数的网页。

  2、处理网页。搜索引擎抓到网页后,还要做大量的预处理工作,才能提供检索服务。其中,最重要的就是提取关键词,建立索引库和索引。其他还包括去除重复网页、分词(中文)、判断网页类型、分析超链接、计算网页的重要度/丰富度等。

  3、提供检索服务。用户输入关键词进行检索,搜索引擎从索引数据库中找到匹配该关键词的网页;为了用户便于判断,除了网页标题和URL外,还会提供一段来自网页的摘要以及其他信息。

  爬行和抓取:搜索引擎蜘蛛通过跟踪链接爬取网页,获得页面html代码存入数据库。这里的蜘蛛是指搜索引擎用来爬取访问页面的程序,这个程序浏览网路上的页面后,会将浏览记录存入到数据库成为原始数据,一般蜘蛛访问时,首先会访问网站根目录的robots协议文件,了解该网站哪些不能抓取,哪些能抓取。

  然后蜘蛛为了抓取更多内容,通常会跟踪网站上的链接,按照深度优先和广度优先爬行网站目录,然后抓取到数据库。

  说完蜘蛛,那么问题来了,怎么引蜘蛛?我们最通俗的做法就是去搜索引擎的网站提交入口,将自己的网站提交,以便新站能让蜘蛛快速访问并抓取记录数据到数据库备用。

  预处理:这一步是蜘蛛抓取数据后,在数据库中的排列?首先提取文字,然后分词,清除停止词,去处重复,最后按照正向索引和倒序索引排列达到我们看到的排名。

  排名的计算方式是:对搜索词处理,对照数据库匹配,初始数据选择,相关性计算,过滤调整到最后的排名。

  至此一整套的工作基本结束,我们看着简单,其实真相并不是我们看到的,我们看到的只是表象,因为我们不懂技术,但是我们得了解蜘蛛的这一套抓取排名原理,那么我们在以后的优化中,就可以得心应手了。

成都seo优化

原创文章,作者:鲁 大师seo,如若转载,请注明出处:http://www.luseo.cn/archives/1454.html

发表评论

电子邮件地址不会被公开。 必填项已用*标注

联系我们

15284716688

在线咨询:点击这里给我发消息

邮件:524595840@qq.com

工作时间:周一至周日,9:30-18:30