将在同一域上使用HTTP和HTTPS会影响SEO

MMS*_*MSs 6 https seo http

将同一域上的两种协议用于同一网站,是否会被搜索引擎索引两次,并考虑重复内容?

如果是这样,那么在SEO中避免这种负面影响的最佳方法是什么.我应该在另一个子域上使用https https://ssl.example.com而不是https://www.example.com使用不同的docroot吗?或者是否足够好在同一个docroot上为非安全内容进行必要的301重定向从https到http,反之亦然?这里的最佳做法是什么?

cer*_*erd 3

请参阅有关该主题的全面讨论,以解决您网站特有的问题:

\n\n

Moz 问答:重复内容以及 http 和 https?

\n\n

总之:

\n\n
\n

“Google 认为 https:// 和 http:// 是两个不同的网站,并且可能\n 对一个网站的索引与另一个网站的索引不一致和/或对重复的内容进行惩罚...不需要 https 的 https 索引页面通常会出现从机器人进入 https 所需页面并向外遍历(购物车等)

\n
\n\n

(注意:显然,如果您的网站上有某些内容需要 https:,您需要小心以下任何一项。

\n\n

最简单的解决方案可能是在您的网站中使用绝对规范的链接。

\n\n

即:<a href=\'https://www.example.com/securepage/\'>.. 根据需要或常规 http:// 否则。

\n\n

解决方案

\n\n
    \n
  1. “明智地对待网站结构:为了防止引擎抓取和索引 HTTPS 页面,请构建网站,以便只能通过表单提交(登录、注册或支付页面)访问 HTTP。常见的错误是通过标准链接提供这些页面(当您不知道或不知道网站的安全版本正在被爬网和索引时就会发生)。”

  2. \n
  3. “使用 Robots.txt 文件来控制对哪些页面进行爬网和索引。”

  4. \n
  5. “使用 .htaccess 文件。Here\xe2\x80\x99s 如何执行此操作:”

    \n\n

    在根目录中创建一个名为 robots_ssl.txt 的文件。

    \n\n

    将以下代码添加到您的 .htaccessRewriteCond

    \n\n
    `%{SERVER_PORT} 443 [NC]RewriteRule ^robots.txt$ robots_ssl.txt [L]`\n
    Run Code Online (Sandbox Code Playgroud)
  6. \n
  7. 如果页面已被抓取,请从网站管理员工具中删除 yourdomain.com:443。

  8. \n
  9. 对于像 php 这样的动态页面,请尝试:

    \n\n

    < ?phpif ($_SERVER["SERVER_PORT"]== 443){echo \xe2\x80\x9c<meta name=\xe2\x80\x9d robots \xe2\x80\x9d content=\xe2\x80\x9d noindex,nofollow \xe2\x80\x9d > \xe2\x80\x9c;}?>

  10. \n
  11. 戏剧性的解决方案(可能并不总是可行):301 将 HTTPS 页面重定向到 HTTP 页面 \xe2\x80\x93,希望链接权能转移。

  12. \n
\n