SEO工程师在日常优化网站的时候,通常都会优先考虑如何优化网站的TDK,也就是标题,关键词以及描述就这三大项,虽然说现在百度已经对关键词这一项取消了权重,但毕竟也方便于你查询排名,所以聊胜于无,很多SEO工程师还是会把关键词加到这里面。当然很多SEO工程师在做好这些之后还会注意到网站内外链,以及网站优质的内容,还会为了让HTML代码减少,SEO工程师会将网站主体内容用js生成,针对用户访问,没有做优化,但是网站却特意针对爬虫抓取做了优化,直接将图片二进制内容放到了HTML中,然而优化后发现内容却不被百度收录。页面质量很好,还特意针对爬虫做了优化,为什么内容反而不收录了呢?
工程师分析:
1、网站针对爬虫爬取做的优化,直接将图片二进制内容放到了html中导致页面长度过长,网站页面长度达128k以上;
2、站点优化后将主体内容放于最后,图片却放于前面;
3、爬虫抓取内容后,页面内容过长被截断,已抓取部分无法识别到主体内容,最终导致页面被认定为空短而不收录;
工程师建议:
1、不建议站点使用js生成主体内容,如js渲染出错,很可能导致页面内容读取错误,页面无法抓取;
2、如站点针对爬虫爬取做优化,建议页面长度在128k之内,不要过长;
3、针对爬虫爬取做优化,请将主体内容放于前方,避免抓取截断造成的内容抓取不全;
- 作者:姜 文 | 发布:2017年07月26日
- 分类:站长资讯
- 标签:站长资讯
- 转载文章请注明:网站页面长度过长也会导致不收录? | 姜文博客