我正在使用非常酷的Github Mylyn Connector for Eclipse Indigo.但是,由于我将它用于GitHub上的许多项目,因此我非常快速地运行针对GitHub v3 API的未经身份验证的请求强制执行的每秒60个请求速率限制.
症状是刷新任何查询(无论多么小 - 再次,这里的限制因素更多是我处理的可能存储库)我得到错误:
Unexpected error : API Rate Limit Exceeded for XXX.XXX.XXX.XXX
Run Code Online (Sandbox Code Playgroud)
XXX.XXX.XXX.XXX
我的知识产权当然在哪里.
我已使用我的GitHub用户名和密码在任务存储库视图中配置了GitHub存储库,但连接器似乎没有使用OAuth或基本身份验证.我已经阅读了GitHub连接器插件的常见问题解答,但没有找到任何有用的东西.
有没有办法让GitHub连接器进行经过身份验证的请求(这可以计入更宽松的5K /小时的速率限制?)?
编辑:我尝试使用私有存储库(至少有一个活动问题)来检查是否在那里发送了一些凭据.我有Unexpected error: Issues are disabled for this repo
.
编辑:我注意到Eclipse Marketplace上插件版本的问题,然后切换到从nightlies repo获取我的EGit插件,同样为Mylyn Github Connector.它没有帮助
IntelliJ的Scala插件中有一些scalastyle支持.这个问题是关于设置它捡起scalastyle配置文件,该文件是在定制的目录名下根的最佳方法scalastyle-config.xml
(例如,用于星火项目).
目前,要获取IntelliJ中的scalastyle插件来拾取我们的scalastyle配置,您需要将它的副本放入您的.idea
文件夹(据说.project
也可以使用,但我还没有测试过).此外,需要命名文件scalastyle_config.xml
(使用下划线而不是连字符).简而言之,您需要在项目的根目录中调用以下内容:
cp scalastyle-config.xml .idea/scalastyle_config.xml
虽然我认为这是一个丑陋的黑客,但它至少允许我在构建整个项目之前看到scalastyle违规.如果您有更好的解决方案,请告诉我.
我不是一个专业的程序员,但我做了一些小型独奏项目,我想要一些版本控制和同步,但是经历记住提交和结账(在不同的计算机上)的过程比说,保持更麻烦Dropbox文件夹中的代码,在文件更改时自动上传到云端.使用当前副本对我来说完全透明,但没有版本控制.(同步也是一种痛苦,因为我回家后经常几天都不打开笔记本电脑.)
有没有办法让代码库在文件更改时自动提交(或者每隔几分钟),如果我想从另一台计算机继续工作,可以自动下载最新版本?
谢谢!
我正在寻找一个yasnippet模板,它允许我将许可证头添加到Emacs中的脚本缓冲区.有点像这样,但有点改进:
(comment-region (point-min) (point))
在你的代码片段的末尾.comment-style
变量,或者,如果您想查看框样式注释的样子,只需调用M-x comment-box
活动区域:它comment-region
使用正确的选项进行调用.第一种方法是通过将上一个代码段的末尾修改为:来设置样式:
(let ((comment-style 'box))
(comment-region (point-min) (point)))
Run Code Online (Sandbox Code Playgroud)
不幸的是,压痕搞砸了,我的盒子不是矩形的.如果我从片段开始:
Copyright (c) ${1:`(nth 5 (decode-time))`}
All rights reserved.
Redistribution and use in source and binary forms, with or
without modification, are permitted`
(let ((comment-style 'box))
(comment-region (point-min) (point)))`
Run Code Online (Sandbox Code Playgroud)
该片段的扩展"打破了盒子"(我正在使用ocaml注释语法调试此片段,而不是它应该重要):
(**************************************************************)
(* Copyright (c) 2010 *)
(* All rights reserved. *)
(* *)
(* Redistribution and …
Run Code Online (Sandbox Code Playgroud) 在我目前的项目中,我们使用Java和Coq.我们使用maven进行持续集成设置.我们想检查coq文件作为其中的一部分.即我们需要:
有人尝试过设置吗?如何才能做到这一点?
我想使用Spark Streaming处理来自Kafka的实时数据流。我需要从传入流中计算各种统计信息,并且需要针对持续时间不同的窗口进行计算。例如,我可能需要计算最近5分钟的统计信息“ A”的平均值,同时计算最近1小时的统计信息“ B”的中位数。
在这种情况下,推荐使用Spark Streaming的方法是什么?以下是我可能想到的一些选择:
(i)从Kafka获得一个DStream,并使用window()方法从其中创建多个DStream。对于每个结果DStream,windowDuration将根据需要设置为不同的值。例如:
// pseudo-code
val streamA = kafkaDStream.window(Minutes(5), Minutes(1))
val streamB = kafkaDStream.window(Hours(1), Minutes(10))
Run Code Online (Sandbox Code Playgroud)
(ii)运行单独的Spark Streaming应用-每个统计信息一个
问题
对我来说(i)似乎是一种更有效的方法。但是,我对此有一些疑问:
提前致谢
analytics real-time apache-kafka apache-spark spark-streaming
使用Spark,我有一对RDD[(String, (Int, Int)]
.我试图找到每个键显示多个总和的最佳方法(在这种情况下,每个Int
单独显示的总和).我想这样做reduceByKey
.
这可能吗?