当前位置:首页 > 新闻动态

CMC国际注册咨询师电商张学宁导师

发表时间:2021-10-21 10:04:58

有些网站内容中包含一些站长不想让蜘蛛抓取的url或文件,也可以直接屏蔽。对于屏蔽蜘蛛,用到的一般都

比较少。   robots文件的写法   这一点应该是比较重要的了。如果写错了想屏蔽的没成功,想被抓取的

却写进去自己不能及时发现可就亏大了。首先我们要知道两个标签,Allow和Disallow,一个是允许,一个是

不允许,它的作用相比大家也都能理解。   User-agent:   Disallow:   或者   User-agent:    

Allow:   这两段内容表示的都是允许抓取所有,实际上屏蔽url和文件用到的是Disallow标签,除非你的网

站只有几条想要被抓取采用Allow标签。这个User-agent:后面跟的就是蜘蛛名称,大家对主流的搜索引擎蜘

蛛名称应该比较熟悉。

联系我们

微信咨询

bly2027

邮箱咨询

3113995028@qq.com

公众号
微信号
鄂ICP备19010743号-2 ©2025 优企猎客