加入收藏 | 设为首页 | 会员中心 | 我要投稿 温州站长网 (https://www.52wenzhou.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 运营中心 > 搜索优化 > 正文

做SEO优化合理控制页面长度更有用于收录

发布时间:2022-02-17 12:54:36 所属栏目:搜索优化 来源:互联网
导读:一些SEO站长为了尽可能的展现内容,往往会让页面很长,尤其是医疗方面的网站,更是长的需要拉动下拉条才可能看到底。而这些网站往往都有一个共性,即页面中图片过多,且前面往往是幻灯片。因而,不少站长认为这种页面过长的网站也是极不容易收录的,那么,这
        一些SEO站长为了尽可能的展现内容,往往会让页面很长,尤其是医疗方面的网站,更是长的需要拉动下拉条才可能看到底。而这些网站往往都有一个共性,即页面中图片过多,且前面往往是幻灯片。因而,不少站长认为这种页面过长的网站也是极不容易收录的,那么,这是真的吗?
 
        之前也提到过,页面过长的网站往往有一个特点就是图片很多,而且内容很长。各种分类加起来能顶其他企业站的两倍还多。而这样的网站往往需要浏览者保持良好耐心去浏览。所以,非真正有需求者,很少有人会去看。而对于这样的网站是否不收录,是要看情况的。
  
       有经验的SEO站长都知道,网站针对爬虫爬取所做的优化,是很容易被收录的。但是有些站长会将图片二进制直接放入到HTML页面当中,这样就会导致页面长度超过规定的数值,因此不容易抓取。
 
其次,仔细看这些页面比较长的网站你会发现,这些网站还有一个共性就是图片在前,内容在后。以医疗站为例,医疗证的导航下面往往是四个幻灯片,这些幻灯片分别显示医疗的四大技术,以便吸引患者前来就诊。而接着就是医疗专家的介绍、技术、案例、新闻等,综合下来,这一网站要想完全看到自己想看的内容除非是自己拉动下拉条,否则能否找到还是未知数。
 
这样的网站对于用户来说没什么,顶多是拉动一下下拉条,但是对于爬虫来说就不一样了。过长的代码导致爬虫在抓取内容的时候,很容易被截断,已经抓取的部分往往是图片部分,这部分代码如果不精简,就会导致爬虫在很长的时间内抓取几张图片,而无有价值内容。
 
这样爬虫就会认为页面中没有有价值的内容。所以,最终的结果是,爬虫不会再来或者是即使来,也是三五个星期一次。周而复始,直到爬虫不再来。这样的网页自然也就不会被收录。那么,如何让网站被快速收录呢?想要展示更多的内容该怎么办呢?对此,有经验的SEO建议以下几点:
 
一、不要使用JS生成主体内容,一旦JS出故障,网页很容易出现读取错误,页面无法抓取的情况;
 
二、如果想要针对爬虫进行优化,尽量控制在128K之内。另外,尽量能精简代码,让代码看起来最少,这样爬虫更愿意多来你的网站逛一逛。

(编辑:温州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读