我正在使用youtube api.当我点击此网址时" https://www.googleapis.com/youtube/analytics/v1/reports?ids=channel%3D%3DMINE&start-date=2015-01-01&end-date=2016-01-31&metrics=likes% 2Cdislikes&key = {API Key} "
它给了401
{
"error": {
"errors": [
{
"domain": "global",
"reason": "required",
"message": "Login Required",
"locationType": "header",
"location": "Authorization"
}
],
"code": 401,
"message": "Login Required"
}
}
Run Code Online (Sandbox Code Playgroud)
但是我在浏览器中点击了" https://developers.google.com/apis-explorer/?" 它工作正常.
如何使第一个请求起作用?
google-api google-oauth youtube-data-api youtube-analytics-api
我听到了一个新术语Data Lake.我用Google搜索并得到了它
数据湖是一个大型存储库和处理引擎.数据湖提供"为任何类型的数据提供海量存储,巨大的处理能力以及处理几乎无限的并发任务或工作的能力"
术语数据湖通常与面向Hadoop的对象存储相关联.在这种情况下,组织的数据首先被加载到Hadoop平台,然后业务分析和数据挖掘工具应用于它驻留在商用计算机的Hadoop集群节点上的数据.
Hadoop也做了同样的事情.我们有用于存储的HDFS和用于计算的MapReduce.我对Hadoop和Data湖有点困惑.两者之间有什么区别.如果它们是相同的,为什么这个术语出现.或者如何定义数据湖.
我使用护照雅虎构建认证,这是我的配置
yahoo : {
clientID: "YYYYYYYYYYYYYYYYYYYYYYYYYYYYy",
clientSecret: "XXXXXXXXXXXXXXXXXXXXXXXXXXXX",
callbackURL: "http://black.jack.co/auth/yahoo/callback"
}
Run Code Online (Sandbox Code Playgroud)
这是我在雅虎开发者的配置Aplication Name:autheticate yahoo主页URL:http://black.jack.co 回调域名:http://jack.co
当我尝试登录时,雅虎回调会给出错误 哦哦看起来出了问题.请稍后再试.如何解决这个问题?
Hive支持with子句,但配置单元不支持递归查询.
在关系数据库中,有一些递归函数,存储过程用于递归查询但是hive不支持存储过程和递归函数.我们如何在hive中实现递归查询?
public static String executeCommand(String command) {
StringBuffer sb = new StringBuffer();
Process p;
try {
p = Runtime.getRuntime().exec(command);
p.waitFor();
} BufferedReader reader = new BufferedReader(new InputStreamReader(p.getInputStream()));
String line = "";
while ((line = reader.readLine()) != null) {
sb.append(line + "\n");
}
} catch (Exception e) {
e.printStackTrace();
}
return sb.toString();
}
Run Code Online (Sandbox Code Playgroud)
给定的代码工作正常,以执行任何命令,但我有一个命令,希望YES/NO作为输入.如何将输入命令用于进一步执行?
恩.
executeCommand("pio app data-delete model");
output-
[INFO] [App$] Data of the following app (default channel only) will be deleted. Are you sure?
[INFO] [App$] App Name: twittermodeling
[INFO] …
Run Code Online (Sandbox Code Playgroud) 我刚开始学习Spark
.根据我的理解,Spark
将中间输出存储在RAM中,因此与之相比非常快Hadoop
.如果我错了,请纠正我.
我的问题是,如果我的中间输出是2 GB而我的空闲RAM是1 GB,那么在这种情况下会发生什么?这可能是一个愚蠢的问题,但我还没有理解Spark的内存概念.任何人都可以向我解释一下Spark的内存概念吗?
谢谢
我正在使用预测模板进行逻辑回归.我已经使用了部署模型pio deploy
.它给了我一个我正在测试我的问题的端口.我的问题是如何取消部署模型.是否有任何取消部署的命令或者我必须找到使用的端口PID netstat -npl | grep port no
并手动终止PID.
我正在使用kubectl cp
命令将本地目录复制到 Kubernetes pod
kubectl cp test $POD:/tmp
Run Code Online (Sandbox Code Playgroud)
它将test
目录复制到 Kubernetes pod/tmp
目录中。
现在我想覆盖 pod 中的 test 目录。使用kubectl cp
命令进行复制时,我没有找到任何覆盖目录的选项。
目前,我正在从 pod 中删除 test 目录,然后复制该目录。
kubectl exec $POD -- sh -c 'rm -rf /tmp/test'
kubectl cp test $POD:/tmp
Run Code Online (Sandbox Code Playgroud)
这工作正常,但如果复制时出现任何错误,pod 中的现有目录也将被删除。
如何在不先删除 pod 目录的情况下用本地目录覆盖 pod 目录?
提前致谢。
我有一个txt文件,其中包含一些评论数据.我想替换....用.
example String s = I am very happy.......;
it may be I am very happy..;
Run Code Online (Sandbox Code Playgroud)
我想在java中用一个点替换所有在一起的点.
hadoop ×2
java ×2
apache-spark ×1
command-line ×1
cp ×1
data-lake ×1
dictionary ×1
google-api ×1
google-oauth ×1
hive ×1
kubectl ×1
kubernetes ×1
node.js ×1
overwrite ×1
passport.js ×1
predictionio ×1
rdd ×1
recursion ×1
reduce ×1
runtime.exec ×1
yahoo ×1