成都网站优化 - SEO百科 - 如何正确的处理网页中的重复内容,才不会被百度打击?

如何正确的处理网页中的重复内容,才不会被百度打击?

本文作者:君启十七 发布时间:2019-12-06 10:53:37 访问人数:71 本文所属:SEO百科
「本文导读」本文接着2019年的年末时间给大家带来一片关于网页中的重复内容问题, 这问题是很多SEO的人都需要掌握并了解,为此,本文借助这个时间和大家说说如何正确的处理网页中的重复内容

  什么叫做重复内容:重复内容通常分为三类之一:精确重复,近似重复和跨域重复。

  完全相同: 两个网址具有相同的内容。

  近似重复:两段内容的差异很小。

  跨域重复:多个域中存在完全相同或几乎相同的内容。

  重复的内容可能来自多种不同的因素。在某些情况下,网站许可在其他地方使用的内容;糟糕的站点体系结构缺陷也可能起作用。gi窃会导致内容重复,我认为最常见的原因是CMS问题。

  尽管所有这些都会产生问题,但我们必须以特定的方式来处理它们。在开始技巧之前,让我们解决重复内容的后果。

  重复页面会给SEO优化带来什么弊端:

  浪费的抓取:搜索机器人以抓取预算进入您的网站。如果您有很多重复的内容,那么它将浪费机器人的爬虫预算,并且更少的唯一,良好的页面将被爬取并建立索引。

  浪费的链接资产:重复的页面可以获取PageRank和链接权限,但这无济于事,因为Google不会对重复的内容进行排名。这意味着您浪费了这些页面的链接权限。

  在SERP中列出的内容有误:没有人确切知道搜索算法的工作原理。因此,如果您有多个页面包含完全或几乎重复的信息,则不必决定要过滤哪些页面以及对哪些页面进行排名。这意味着您想要排名的版本可能会被隐藏。

  如何正确的处理网页中的重复内容:

  使用301重定向:如果您打算从网站中删除任何重复的内容,这是一种有用的方法。由于其中某些页面可能已收到链接,因此最好将这些页面永久重定向到正确的URL。这将告诉用户,在这种情况下更重要的是,告诉搜索机器人在哪里可以找到合适的内容。

  使用robot.txt阻止:通常建议的另一种选择是使用robots.txt文件来阻止重复的页面被抓取。但是,Google不建议使用这种方法,并指出:“如果搜索引擎无法抓取具有重复内容的页面,它们将无法自动检测到这些URL指向相同的内容,因此必须将它们有效地分开对待,独特的页面。”

  使用rel =“ canonical”:如果您打算保留重复的内容,那么使用rel =“ canonical”链接元素是一个不错的选择。此步骤告诉搜索引擎内容的哪个版本是“真实”版本。将此标签添加到重复的内容的标题中,这样链接:

  这段代码告诉搜索机器人在哪里可以找到真正的内容。

  • 项目顾问.png

    扫描添加

    项目经理微信

    享受专业顾问服务

  • 微信公众号.jpg

    关注公众号

    获取更多专业资讯

  • 分享:

    免责声明:本文是由我司原创独立撰写首发本网站中,供使用百度等各大搜索引擎的用户可以第一时间查阅并解决自己所遇到的优化难题。而其中部分转载的文章,我们会在找到作者的情况取得他的同意之后再进行发布!而没有找到文章作者的情况,你可以投稿到我们的邮箱:2838355532@qq.com并附上文章所有权的证明,我们便会在第一时间删除(不超过二十四小时)!

    本文关键词:

    阿里云
    SEO按天计费
    域名注册
    君企网络启动新征程
    • 公司名称
    • 联系人
    • 电话
    • 邮箱
  • QQ
  • 电话
  • 首页
  • 留言
  • 返回顶部