1.检查、修改robots协议
robots.txt是放在服务器下,是用来告诉搜索引擎哪些页面或栏目下是不能被抓取和收录的文件。如果被人恶意或者不小心修改了robots协议文件,搜索引擎蜘蛛就不能正常抓取某些页面,这也可能会导致网站收录量下降的原因。
2.服务器网站是否被黑
假如被人恶意黑掉了服务器,在网站程序中植入了其他恶意代码或其他文件,做了快照劫持等不正当操作,网站出现大量非法内容的页面,用不了几天,网站的收录量也是会直线下降。
3.测试与分析日志
SEOer可以通过在百度后台进行抓取测试,能查看模拟百度蜘蛛抓取是否正常,同时可以利用一些软件来进行日志分析,查看日志是否正常。
4.向百度平台反馈
如果网站收录量骤降,那么可以去百度搜索资源平台反馈下,如果是些许降幅,那最好还是不要反馈的好,先稳住看看情况再说。
5.网站改版
如果网站近期进行了网站的改版,尤其是变更了网站的URL,还没有做任何301跳转的,以及并未在百度后台添加网站改版规则,这种情况下,收录量骤降也就变得很正常了。针对这种情况,还是先去提交规则与做301跳转设置吧。
6.是否存在低质量内容与外链
如果网站近期、或者一直以来,基本上无原创的内容,全部内容都是恶意采集的,并且原创比例还很低的,可能就是飓风算法2.0的原因了导致收录量下降了,这种情况下,首先就需要考虑弄一些原创文章了。
如果存在很多低质量的外链接,例如买过多单向锚文本链接,也可能会导致网站的降权,也可能导致收录量的下降。所以就要高平台的有效外链,一些低权重平台的就没有必要了,作用不算太大,反而对网站的影响不好。
本文地址:http://www.links99.cn/youhuajiqiao/3574.html