当前位置: 首页 > article >正文

关注搜索引擎蜘蛛压力

以前在建站的时候,他们说蜘蛛来抓取的频率越多越好,因为蜘蛛来抓取说明了网站更新速度快,受搜索引擎的欢迎,但是在最近的网站统计中,发现很多蜘蛛爬取的频次非常的高,比如有的蜘蛛一天能来网站几万次,要知道网站的带宽是有限制的,比如很多网站的带宽只有几M,这就像一个大门一样,如果很多人往里面挤,肯定是挤不进来的,如果蜘蛛大量的访问,势必导致正常访问的用户被挡在门外,或者访问速度会受到限制,影响正常的业务访问。

因此,我们不能任由蜘蛛频繁的抓取,那么怎么办呢?一般情况下有这三种方案:

1、不想让蜘蛛抓取的目录,在robots里面屏蔽。

2、通过各大搜索引擎站长平台对蜘蛛的抓取次数进行限制,如果网站每天更新大量的内容,可以适当放宽蜘蛛的抓取次数,如果访问不高,可以限制在几千以内就可以了。

3、对于不想让某些蜘蛛抓取的,可以直接在robots屏蔽这个蜘蛛。

还有一些蜘蛛是假蜘蛛,他们会冒充真蜘蛛对网站进行大量的抓取,这个时候就要对网站部署合适的防火墙等,筛选出假蜘蛛进行屏蔽。

在做了以上的步骤以后,我们就能将蜘蛛的抓取控制在一个合理的范围,既不影响蜘蛛的抓取,也不影响正常的用户访问。


http://www.kler.cn/a/519225.html

相关文章:

  • Mono里运行C#脚本36—加载C#类定义的成员变量和方法的数量
  • SAP新增公司间交易的配置点---SD部分内容
  • 【开源免费】基于Vue和SpringBoot的医院资源管理系统(附论文)
  • PHP防伪溯源一体化管理系统小程序
  • Arcgis国产化替代:Bigemap Pro正式发布
  • (5)STM32 USB设备开发-USB键盘
  • vim 中粘贴内容时提示: -- (insert) VISUAL --
  • 【YOLOv11改进- 主干网络】YOLOv11+MobileNetV2(2018): 相比于 MobileNetV1 而言准确率更高,模型更小;
  • 【Linux】列出所有连接的 WiFi 网络的密码
  • 《Kotlin核心编程》下篇
  • 安装环境pytorch
  • centos7 配置国内镜像源安装 docker
  • 【分布式日志篇】从工具选型到实战部署:全面解析日志采集与管理路径
  • 使用 Pipeline 提高 Redis 批量操作性能
  • Java 反射机制:春招面试中的关键知识点
  • 【模型】RNN模型详解
  • w178智能学习平台系统设计与实现
  • 景联文科技加入AIIA联盟数据标注分委会
  • Linux的常用指令的用法
  • java定时任务备份数据库
  • php-phar打包避坑指南2025
  • 电梯系统的UML文档10
  • Redis-缓存
  • unity导入图片素材注意点和AI寻路模块导入
  • vofa++使用方法
  • 信息收集 CTF 1 挑战通关指南