« Excel职场实用重点知识:单一条件多列数据求和方法汇总!电脑无法连接远程打印机,错误代码0X00000709的解决方法,亲测有用!!! »

1.1 (了解)通用爬虫和聚焦爬虫

根据使用场景,网络爬虫可分为 通用爬虫 聚焦爬虫 两种。

通用爬虫

通用网络爬虫 是 搜索引擎抓取系统(Baidu、Google、Yahoo等)的重要组成部分。主要目的是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份。

通用搜索引擎(SearchEngine)工作原理

通用网络爬虫从互联网中搜集网页,采集信息,这些网页信息用于为搜索引擎建立索引从而提供支持,它决定着整个引擎系统的内容是否丰富,信息是否即时,因此其性能的优势直接影响着搜索引擎的效果。

第一步:抓取网页

搜索引擎网络爬虫的基本工作流程如下:

1.首先选取一部分的种子URL,将这些URL放入待抓取URL队列;

2.去除待抓取URL,解析DNS得到主机的IP,并将URL对应的网页下载下来,存储进已下载网页库中,并且将这些URL放进已抓取URL队列。

3.分析已抓取URL队列,分析其中的其他URL,并且将URL放入待抓取URL队列,从而进入下一个循环……

 

搜索引擎如何获取一个新网站的URL:

1.新网站向搜索引擎主动提交网址:(如百度http://zhanzhang.baidu.com/linksubmit/url)

2.在其他网站上设置网站外链(尽可能处于搜索引擎爬取范围)

3.搜索引擎和DNS解析服务器(如DNSSPod等)合作,新网站域名将被迅速抓取。

但是搜索引擎蜘蛛的爬行是被输入了一定的规则的,他需要遵从一些命令或文件的内容,如标注为nofollow的链接,或者是Robors协议。

Robots协议(也叫爬虫协议、机器人协议等),全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取,例如:

淘宝网

腾讯网

第二步:数据存储

搜索引擎通过爬虫爬取到的网页,将数据存入原始页面数据库。其中的页面数据与用户浏览器得到的HTML是完全一样的。

搜索引擎蜘蛛在抓取页面时,也做一定的内容检测,一旦遇到访问权重很低的网站上有大量抄袭、采集

  • 相关文章:

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

日历

最新评论及回复

最近发表

Powered By Z-Blog 1.8 Walle Build 100427

Copyright shahana's WebSite. Some Rights Reserved.
Record number:京ICP备19041645号.