导读:由于链接的的指向,而导致网站内容重复,一直是网站SEO的大忌。不同的链接指向同一个网页,就会被搜索引擎判定为作弊。昨天提到的Wordpress重定向插件,在一定意义上也是为了阻止重
发表日期:2019-12-09
文章编辑:兴田科技
浏览次数:9232
标签:
由于链接的的指向,而导致网站内容重复,一直是网站SEO的大忌。不同的链接指向同一个网页,就会被搜索引擎判定为作弊。昨天提到的Wordpress重定向插件,在一定意义上也是为了阻止重复内容。然而,由于Wordpress的结构原因,往往就会发生网页内容重复的状况。例如:http://www.domain.com/archive/1 和 http://www.domain.com/archive/1/feed两个网址下的内容就是一样的,所以,我们就必须想办法阻止这样的情况发生。
通常,解决重复内容的方法有:使用noindex标签,利用excerpt实现内容摘要,以及配置robots.txt。今天就主要说说在Wordpress下使用robots.txt文件。
robots.txt文件就像一个网站的大门,它会告诉搜索引擎的蜘蛛,可以抓取哪里的网页内容,哪里的不能抓取。因此,配置好robots.txt文件,完全可以理想的组织blog内容重复的问题。robots.txt的具体文法和使用方法,可以参考robotstxt.org。在国内,此类的Wordpress robots.txt比较流行:
User-agent: *
Disallow: /wp-
Disallow: /feed/
Disallow: /comments/feed
Disallow: /trackback/
Disallow: /?s=
刚才看到 filination.com上面提到的一个robots文件,并且提供了简短的解释。刚刚接触robots.txt文件的朋友,可以参考一下:
User-agent: Googlebot
# Disallow all directories and files within
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
# Disallow all files ending with these extensions
Disallow: /*.php$
Disallow: /*.js$
Disallow: /*.inc$
Disallow: /*.css$
# Disallow parsing inpidual post feeds, categories and trackbacks..
Disallow: */trackback/
Disallow: */feed/
Disallow: /category/*
Robots.txt因人而异,不同的人对robots有不同的理解,在加上SEO一直是一个热门话题,所以Wordpress的robots文件不会是唯一的,也不会有一个最好的。大家要是有觉得更好的,不妨分享一下。
上一篇:
朱则荣:图王与王通的软文营销境界上一篇:
茶叶行业的网站优化案例更多新闻
2023
兰州网站建设是一个实现在这个数字化时代品牌线上突破的关键步骤。通过一个具有吸引力和实用性的网站,您可以展示您的产品和服务,扩大业务,吸引潜在客户,并为客户提供优质的用户体验。在兰州网站建设中,网站设计、内容管理、用户体验和搜索引擎优化是关键因素,需要专业的团队来确保项目的成功。立即开始您的兰州网站建设计划,使您的品牌在互联网上脱颖而出!
View details
2023
京山网站建设公司拥有一支经验丰富、专业技术的团队,包括设计师、开发人员和优化人员。他们精通各种网站开发技术,能够根据客户的需求进行定制开发,并确保网站在各个方面的完美呈现。
View details
2023
网络广告投放是一种通过购买广告位,在适当的时间和适当的位置展示广告以吸引潜在用户的方式。可以选择在七台河各大门户网站、搜索引擎或社交媒体平台等进行广告投放,增加品牌知名度和销售业绩。
View details
2023
小程序定制是指根据客户需要,为其业务开发一款独特的小程序应用。小程序定制可以适配不同的行业和需求,为企业和个人提供了一个强大的工具,帮助他们扩大业务和增加品牌曝光度。
View details