我想使用Google的网站站长工具为我的“站点”添加域验证,该站点完全由Cloud Functions for Firebase组成:
https://us-central1-<project-id>.cloudfunctions.net/
但是,我无法弄清楚如何以一种可以成功运行的方式执行此操作。
推荐的方法是下载并提供带有验证码的HTML文件。但是,我似乎无法用点创建函数。
exports['googleKEY.html'] = functions...
Run Code Online (Sandbox Code Playgroud)
尝试部署时失败。
另一种选择是在我的“主页”中放置一个meta标记,但这也无法正常工作,因为我似乎无法创建索引页面。
exports[''] = functions...
Run Code Online (Sandbox Code Playgroud)
和
exports['index.html'] = functions...
Run Code Online (Sandbox Code Playgroud)
也失败了。
有没有一种方法可以仅通过功能来进行域验证?我将不胜感激。
我不知道要使用哪种schema.org类型.谁能提出任何建议?具体问题在这篇文章的底部并且显而易见.我的网站已上网四年,并有数以千计的个人评论.该网站是某个活动发生地点的目录.那些地方可以是教堂,城市公园,展览场地,零售店,餐馆,国家森林,加油站,你的名字!我的网站提供了有关活动的位置和设施的说明.活动可能或可能不属于该位置的假定功能(即我的用户没有在餐厅吃饭).执行该活动的用户来到我的网站并留下关于该地点的评论.用户也可以对位置进行评级,但评级不是用户评论本身的一部分.
如果我使用hreview-aggregates,那么富文本和星标会显示在Google测试工具中.如果我只使用schema.org中的以下内容,则该工具不会显示该片段,但会识别格式:
<div itemprop="aggregateRating" itemscope itemtype="http://schema.org/AggregateRating">
<span itemprop="name">The Hubcap Place</span>
<span itemprop="itemreviewed">Hubcap City</span>
<span itemprop="ratingValue">4</span> stars -
<span itemprop="reviewCount">3077</span> reviews
</div>
Run Code Online (Sandbox Code Playgroud)
如果我改变它,一切看起来都很棒
<title>My Site</title>
<div class="entry" itemtype="http://schema.org/localBusiness" itemscope="">
<span itemprop="name">The Hubcap Place</span>
<span itemprop="itemreviewed">Hubcap City</span>
<span itemprop="author">Ellie</span>
<span itemtype="http://schema.org/AggregateRating" itemscope="" itemprop="aggregateRating">
<meta content="3.2" itemprop="ratingvalue">
<meta content="18" itemprop="ratingcount">
</span>
</div>
Run Code Online (Sandbox Code Playgroud)
我不认为本地业务是合适的.有些地方只是田地中间的空地.另外,schema.org/localBusiness让我觉得我应该拥有它.schema.org/Place似乎最合适,但不会在工具中显示富文本片段.schema.org/Review也是如此.如果我将它用作主包装器,则不会显示该代码段.其他主要的包装工具是产品和餐厅.我很感激你能给出的任何建议.
还应该注意的是,当我使用data-vocabulary.org/Review及其正确的语法时,一切都在工具中显示得很好......我只是遇到了schema.org的问题
我正在开发一个RAP网站,并希望谷歌这样的机器人可以访问它(我这里只是指Google;但我认为其他搜索引擎的工作方式类似).Webapp包含我从数据库加载的动态内容,具体取决于用户搜索的内容.如何为Google提供此内容?我已阅读Google的ajax抓取指南,但不知道如何将其应用于RAP:
提前致谢!
web-applications web-crawler eclipse-rap google-webmaster-tools google-index
我正在尝试从Google网站管理员工具(GWT)获取一些数据,我已经搜索了一些API文档和实现,但他们只返回了一些来自GWT的数据.
我的需求:
需要从GWT获取以下数据,
(1).TOP_PAGES
(2).TOP_QUERIES
(3).CRAWL_ERRORS
(4).CONTENT_ERRORS
(5).CONTENT_KEYWORDS
(6).INTERNAL_LINKS
(7).外部链接
(8).SOCIAL_ACTIVITY
获取这些数据后,我需要为每个数据生成Excel文件.
达成:
我从上面得到的数据很少,并生成到Excel文件中.如,
(1).TOP_PAGES
(2).TOP_QUERIES
(3).INTERNAL_LINKS
(4).外部链接
(5).CONTENT_KEYWORDS
没达到:
我还没有得到像这样的主要部件/数据,
(1).CRAWL_ERRORS
(2).CONTENT_ERRORS
(3).SOCIAL_ACTIVITY
代码示例供您参考:
我在PHP中使用了两个用于此GWT API的文件,
文件#1:(gwdata.php)
<?php
/**
* PHP class for downloading CSV files from Google Webmaster Tools.
*
* This class does NOT require the Zend gdata package be installed
* in order to run.
*
* Copyright 2012 eyecatchUp UG. All Rights Reserved.
*
* Licensed under the Apache License, Version 2.0 …Run Code Online (Sandbox Code Playgroud) 我刚刚使用reactjs编写了我的第一个网站,但当我查看谷歌如何看到我的网站时,我收到以下结果:

我的HTML文件如下所示:
<!DOCTYPE html>
<html>
<head>
<title>MySite</title>
</head>
<body>
<div id="root"></div>
<script async type="text/javascript" src="index.browser.js"></script>
</body>
</html>
Run Code Online (Sandbox Code Playgroud)
我已经停用了所有用于测试的AJAX调用,并且在加载了js文件后立即执行了ReactDOM.render.JS文件本身是经过编译,压缩的,大小不到300 KB(包括所有库,如反应本身).
在这一点上,我不明白我可以做哪些更改谷歌正确渲染我的页面?据我所知,反复化的谷歌渲染问题通常来自AJAX调用或在网站本身被渲染和DOM更改之前在应用程序代码中完成的其他长期工作.但是在删除大型库(除了i18next并做出反应),最小化和压缩代码之后,我看不出我能做些什么来显着提高性能或渲染时间.PageSpeed Insights是99/100点(桌面,只抱怨我可以最小化html以节省110个字节).
我的错误可能是什么想法?服务器端渲染对我来说不是一个合适的选择.
您可以在此处查看演示页面:http://comparo.com.mx
正如您所看到的,没有太多 - 但显示的HTML内容在加载index.browser.js之后立即呈现,这是一个<300KB的文件,因此不应该使谷歌搜索控制台无法正确呈现页面.
编辑:我的服务器位于欧洲,并且远离谷歌服务器从美国爬行.这可能是一个问题吗?
javascript google-search google-webmaster-tools i18next reactjs
我正在开发cakephp项目我有以下URL:
http://www.example.com/
Run Code Online (Sandbox Code Playgroud)
由于CakePHP需要一个网址
http://www.exaple.com/controll/function_name
Run Code Online (Sandbox Code Playgroud)
我正在浏览网站主工具网站验证,我正在验证我的网站,Google提供了我需要存储在根目录中的验证文件(HTML).
问题是CakePHP不允许在URL中放入.HTML,那么如何验证我的网站呢?
根据文章:https: //support.google.com/webmasters/answer/181708?hl = zh-CN出现Soft 404,因为我网站中的某些搜索条件没有项目,但我还是需要将这些页面编入索引谷歌,为了防止这些错误出现在网站管理员抓取错误中,并确保它们不会影响网站索引速度,我们该怎么办?!我们应该返回404错误代码吗?我们应该更多地填写所有搜索组合还是忽略它们?!
indexing seo google-webmaster-tools google-crawlers http-status-code-404
我的ajax网站的Fetch as Google工具存在问题.我的网站是一个有点旧的,使用jquery编写的ajax网站.制作它的开发人员没有使用Hash Fragments.但是他们已经定义了静态路由,并且ajax调用仅在视图中使用(用于加载页面内容).现在我想让这个特定页面谷歌友好,我已经实现了谷歌在这里提出的要求.
由于我的网站不是一个完整的单页应用程序,我直接选择了第三步.在我的路径文件中,我所做的是,如果我看到一个?_escaped_fragment_=参数,我会返回一个自定义模板文件,该文件将包含服务器生成的内容.(所以它应该可以爬行,对吗?)
以下是一个示例:http: //example.com/topic/Health/Conditions_and_Diseases
此页面使用ajax调用从服务器获取详细信息并更新视图.(我meta name="fragment" content="!"在此页面中包含了元标记),因此Google抓取工具应该转到:
http://example.com/topic/Health/Conditions_and_Diseases?_escaped_fragment_=
?????
此页面现在在服务器端生成内容,没有ajax调用.
这是正确的设置吗?但是当我尝试在网站站长工具中获取此页面时,它不会加载任何内容.提取工具一直在说挂起并以错误结束(显示它遇到错误需要很长时间,但没有提到错误.)我通过手动访问每个URL确保这两个版本都正常工作.在我实现之前,Fetch工具实际上显示了没有内容的页面图像.所以现在我期待看到内容.但不知道为什么它需要很长时间+它会给出错误.
有人可以解释一下我做错了哪一部分?我对?_escaped_fragment_=参数的想法是否正确???
先感谢您.
我想为相关产品设置Schema.org标记.
我试过这段代码,但我心里怀疑:
itemprop="isRelatedTo" itemscope itemtype="http://schema.org/Product"
Run Code Online (Sandbox Code Playgroud)
我的产品页面是https://www.amigotrekking.com/everest-base-camp-trek.html
我有1到1700页每页包含20个主题.我从谷歌网站管理员博客阅读关于SEO友好分页的教程使用rel ='next'和rel ='prev'属性.
但我的分页网址应该如何更好的搜索引擎优化.
FOR EXAMPLE:
// im Using Zend Framework
//Default URL for threads is
http://domain.com/Movies/Action/page/3/
// I changed this URL for better SEO to
http://domain.com/ActionMovies/pagenumber
Run Code Online (Sandbox Code Playgroud)
请建议我使用谷歌BOT更友好的分页URL的结构应该是什么.
我应该在URL中使用URI查询符号(?,&),像这样
http://domain.com/movies=action&page=3
http://domain.com/movies=action
http://domain.com/movies=drama
// OR
http://domain.com/ActionMovies/3/
// OR
http://domain.com/Movies/Action/page/3
Run Code Online (Sandbox Code Playgroud) seo ×4
javascript ×2
microdata ×2
schema.org ×2
ajax ×1
api ×1
cakephp ×1
eclipse-rap ×1
firebase ×1
google-index ×1
googlebot ×1
html ×1
i18next ×1
indexing ×1
jquery ×1
php ×1
reactjs ×1
url ×1
web-crawler ×1