<?xml version="1.0" encoding="utf-8"?>
<!DOCTYPE wml PUBLIC "-//WAPFORUM//DTD WML 1.1//EN" "http://www.wapforum.org/DTD/wml_1.1.xml">
<wml>
<head><meta forua="true" http-equiv="Cache-Control" content="max-age=0" /></head>
<card title="1.1 （了解）通用爬虫和聚焦爬虫" id="card1">
<p> 游客</p><p>
标题:1.1 （了解）通用爬虫和聚焦爬虫<br/>
正文:<br/>
根据使用场景，网络爬虫可分为 通用爬虫 和 聚焦爬虫 两种。通用爬虫通用网络爬虫 是 搜索引擎抓取系统（Baidu、Google、Yahoo等）的重要组成部分。主要目的是将互联网上的网页下载到本地，形成一个互联网内容的镜像备份。通用搜索引擎（SearchEngine）工作原理通用网络爬虫从互联网中搜集网页，采集信息，这些网页信息用于为搜索引擎建立索引从而提供支持，它决定着整个引擎系统的内容是否丰富，信息是否即时，因此其性能的优势直接影响着搜索引擎的效果。第一步：抓取网页搜索引擎网络爬虫的基本工作流程如下：1.首先选取一部分的种子URL，将这些URL放入待抓取URL队列；2.去除待抓取URL，解析DNS得到主机的IP，并将URL对应的网页下载下来，存储进已下载网页库中，并且将这些URL放进已抓取URL队列。3.分析已抓取URL队列，分析其中的其他URL，并且将URL放入待抓取URL队列，从而进入下一个循环&amp;hellip;&amp;hellip; 搜索引擎如何获取一个新网站的URL：1.新网站向搜索引擎主动提交网址：（如百度http://zhanzhang.baidu.com/linksubmit/url）2.在其他网站上设置网站外链（尽可能处于搜索引擎爬取范围）3.搜索引擎和DNS解析服务器（如DNSSPod等）合作，新网站域名将被迅速抓取。但是搜索引擎蜘蛛的爬行是被输入了一定的规则的，他需要遵从一些命令或文件的内容，如标注为nofollow的链接，或者是Robors协议。Robots协议（也叫爬虫协议、机器人协议等），全称是&amp;ldquo;网络爬虫排除标准&amp;rdquo;（Robots Exclusion Protocol），网站通过Robots协议告诉搜索引擎哪些页面可以抓取，哪些页面不能抓取，例如：淘宝网腾讯网第二步：数据存储搜索引擎通过爬虫爬取到的网页，将数据存入原始页面数据库。其中的页面数据与用户浏览器得到的HTML是完全一样的。搜索引擎蜘蛛在抓取页面时，也做一定的内容检测，一旦遇到访问权重很低的网站上有大量抄袭、采集<br/><a href="http://myself.pub/wap.asp?mode=WAP&amp;act=View&amp;id=14&amp;Page=1">[&lt;&lt;]</a><a href="http://myself.pub/wap.asp?mode=WAP&amp;act=View&amp;id=14&amp;Page=1">[[1]]</a><a href="http://myself.pub/wap.asp?mode=WAP&amp;act=View&amp;id=14&amp;Page=1">[&gt;&gt;]</a><br/>
<br/>
<a href="wap.asp?act=Com&amp;id=14">查看评论(0)</a><br/>
<a href="wap.asp?act=AddCom&amp;inpId=14">发表评论</a><br/><br/>

<br/>

<br/>
<a href="http://myself.pub/wap.asp">首页</a>
</p>
</card>
</wml>