如何解决搜索爬虫高频次抓取导致服务器崩溃的问题

建站评论
如何解决搜索爬虫高频次抓取导致服务器崩溃的问题

首先声明一点,如果网站能够承受爬虫的高频次访问,那是一件好事,这样有利于网站页面收录,提升网站来自搜索的访问量。但一旦承受不了,我们可以进行如下的操作。

方法一

第一步,注册并登录百度站长平台
第二步,提交网站并验证归属,具体验证网站归属方法可见帮助文档 第三步,选择左侧“站点管理” 第四步,在已认证归属的站点列表中选择需要查询的站点 第五步,选择左侧“抓取压力反馈” 第六步,得到站点抓取压力曲线图及压力调整入口页面 第七步,选取站点压力反馈,调整滑块至您想要压力值,提交反馈 (注:当前数值,是网站当前在百度的有效抓取压力上限值。压力上限是指一天内baiduspider抓取的最多网页数量。) 第八步,查看反馈记录,百度会以最新的反馈信息为准,对网站的抓取压力进行调整 方法二 优化robots.txt

很多建站新手对robots.txt文件的重要作用不是很清楚,利用这篇文章普及一下WordPress站点robots.txt文件编写知识

Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。文章源自公式库网-https://www.gongshiku.com/html/202010/ruhejiejuesousuopachonggaopincizhuaqudaozhifuwuqibengkuidewenti.html

搜索引擎机器人访问网站时,首先会寻找站点根目录有没有 robots.txt文件,如果有这个文件就根据文件的内容确定收录范围,如果没有就按默认访问以及收录所有页面。另外,当搜索蜘蛛发现不存在robots.txt文件时,会产生一个404错误日志在服务器上,从而增加服务器的负担,因此为站点添加一个robots.txt文件还是很重要的。文章源自公式库网-https://www.gongshiku.com/html/202010/ruhejiejuesousuopachonggaopincizhuaqudaozhifuwuqibengkuidewenti.html

知道Robots协议的作用后,下面具体说一下WordPress站点如何编写robots.txt文件。文章源自公式库网-https://www.gongshiku.com/html/202010/ruhejiejuesousuopachonggaopincizhuaqudaozhifuwuqibengkuidewenti.html

WordPress站点默认在浏览器中输入:http://你的域名/robots.txt,会显示如下内容:文章源自公式库网-https://www.gongshiku.com/html/202010/ruhejiejuesousuopachonggaopincizhuaqudaozhifuwuqibengkuidewenti.html

  1. User-agent: *
  2. Disallow: /wp-admin/
  3. Disallow: /wp-includes/

这是由WordPress自动生成的,意思是告诉搜索引擎不要抓取后台程序文件。文章源自公式库网-https://www.gongshiku.com/html/202010/ruhejiejuesousuopachonggaopincizhuaqudaozhifuwuqibengkuidewenti.html

但这是远远不够的,比较完整的WordPress站点robots.txt文件内容如下:文章源自公式库网-https://www.gongshiku.com/html/202010/ruhejiejuesousuopachonggaopincizhuaqudaozhifuwuqibengkuidewenti.html

  1. User-agent: *
  2. Disallow: /wp-admin/
  3. Disallow: /wp-content/
  4. Disallow: /wp-includes/
  5. Disallow: /*/comment-page-*
  6. Disallow: /*?replytocom=*
  7. Disallow: /category/*/page/
  8. Disallow: /tag/*/page/
  9. Disallow: /*/trackback
  10. Disallow: /feed
  11. Disallow: /*/feed
  12. Disallow: /comments/feed
  13. Disallow: /?s=*
  14. Disallow: /*/?s=*\
  15. Disallow: /*?*
  16. Disallow: /attachment/

使用方法:新建一个名称为robots.txt文本文件,将上面的内容放进去,然后上传到网站根目录即可。文章源自公式库网-https://www.gongshiku.com/html/202010/ruhejiejuesousuopachonggaopincizhuaqudaozhifuwuqibengkuidewenti.html

下面分别解释一下各项的作用:文章源自公式库网-https://www.gongshiku.com/html/202010/ruhejiejuesousuopachonggaopincizhuaqudaozhifuwuqibengkuidewenti.html

1、Disallow: /wp-admin/、Disallow: /wp-content/和Disallow: /wp-includes/文章源自公式库网-https://www.gongshiku.com/html/202010/ruhejiejuesousuopachonggaopincizhuaqudaozhifuwuqibengkuidewenti.html

用于告诉搜索引擎不要抓取后台程序文件页面。文章源自公式库网-https://www.gongshiku.com/html/202010/ruhejiejuesousuopachonggaopincizhuaqudaozhifuwuqibengkuidewenti.html

2、Disallow: /*/comment-page-*和Disallow: /*?replytocom=*

禁止搜索引擎抓取评论分页等相关链接。

3、Disallow: /category/*/page/和Disallow: /tag/*/page/

禁止搜索引擎抓取收录分类和标签的分页。

4、Disallow: /*/trackback

禁止搜索引擎抓取收录trackback等垃圾信息

5、Disallow: /feed、Disallow: /*/feed和Disallow: /comments/feed

禁止搜索引擎抓取收录feed链接,feed只用于订阅本站,与搜索引擎无关。

6、Disallow: /?s=*和Disallow: /*/?s=*\

禁止搜索引擎抓取站内搜索结果

7、Disallow: /*?*

禁止搜索抓取动态页面

8、Disallow: /attachment/

禁止搜索引擎抓取附件页面,比如毫无意义的图片附件页面。

上面只是些基本的写法,当然还有很多,不过够用了。

运营不易,
感谢支持!
weinxin
我的微信
我的微信公众号
我的微信公众号扫一扫
weinxin
我的公众号
 
公式库网
  • 本文由 公式库网 发表于 2020年10月20日18:53:16
  • 转载请务必保留本文链接:https://www.gongshiku.com/html/202010/ruhejiejuesousuopachonggaopincizhuaqudaozhifuwuqibengkuidewenti.html
高性价比资源

硬核资源!40000+小学生手抄报模板!

近日,老有坏人想害小编……小编认真反思了一下,可能是以前分享的资源不够分量,所以以后打算把压箱底的好货都拿来分享!还有一点很重要,由于资源实在太多,如果您遭遇资源失效问题,记得第一时间在公众号回复信息...
网赚风口

抖音小豹子下载,小豹子是什么软件

最近刷抖音经常看到一些主播说打开小豹子,关联剪映,然后能够挣多少多少钱,但视频里主播刻意盖住软件名称,让大家想获取软件关注主播,加群等等。 今天小编要公开这个秘密!首先我这里是有这个软件的,大家...

发表评论