我正在为一个项目使用scala和scalaStorm,我目前正在使用来自github(https://github.com/velvia/ScalaStorm)的velvia的scalastorm库,并且我正在尝试丰富它。我想将类型安全性添加到默认为所有java对象的风暴元组中。在风暴中,存在称为螺栓的实体,它们以元组作为输入,并输出其他元组。我想做这样的事情:
class StormBolt[T*][K*]{
}
Run Code Online (Sandbox Code Playgroud)
所以我可以直接写:
class MyBolt[Int, Date, String][Int, String]{
}
Run Code Online (Sandbox Code Playgroud)
我没有找到让我以某种方式执行此操作的任何内容。感谢您提供实施此类功能的提示!在库中添加类型安全性不会感到遗憾!谢谢
我知道你不应该发送带有正文的 HTTP GET 请求,但是 ceilometer web api 强迫我这样做。我正在开发一个 ceilometer scala 客户端,所以我需要一种 scala/java 方式来发出带有主体的 get 请求。到目前为止,我尝试使用 beeClient ( http://www.bigbeeconsultants.co.uk ) 和使用 httpConnection 的纯 Java,但出现 404 错误。在 curl 我可以通过这种方式实现结果:
curl -X GET -H "X-Auth-Token: ..long long token here.."
-H "Content-Type: application/json"
-d '{"q": [{"field": "resource", "op": "eq", "value": "gdfsf"}]}'
http://137.204.57.150:8777/v2/meters/
Run Code Online (Sandbox Code Playgroud)
那是我使用 java HttpURLConnection 的 Scala 代码:
import java.io._
import java.net._
val token = "myToken"
val url = new URL("http://137.204.57.150:8777/v2/meters/")
val body = "{\"q\": [{\"field\": \"resource\", \"op\": \"eq\", \"value\": \"gdfsf\"}]}"
val bodyLenght = …Run Code Online (Sandbox Code Playgroud) 我在遵循mergesort算法的Xcode上用C语言编写了这段代码.问题是,有时我得到EXC_BAD_ACCESS,我无法管理错误的位置!合并算法应该工作(我在mergesort函数之外尝试它并且工作!).感谢您的帮助和耐心!
#include <stdio.h>
#include <stdlib.h>
#include <time.h>
#define DIM 6
void mymerge (int v[], int i1,int i2, int last); //mergesort core: merge two ordinated arrays in one bigger ordinated array
void mymergesort (int v[], int lower, int upper);//mergesort
void printv (int v[],int lower, int upper);
int main () {
int i;
srand((unsigned int)time(NULL));
int v[DIM];
for (i=0; i<DIM; i++)
v[i]=rand()%15;
printv(v, 0, DIM-1);
getc(stdin);
mymergesort(v, 0, DIM-1);
printv(v, 0, DIM-1);
}
void printv (int v[],int lower, int upper){
int i; …Run Code Online (Sandbox Code Playgroud) 当我运行 distcp 将数据从 s3 移动到本地 hdfs 时,我在启动映射减少作业以复制数据期间遇到此异常:
Error: Could not find or load main class org.apache.hadoop.mapreduce.v2.app.MRAppMaster
Run Code Online (Sandbox Code Playgroud)
我检查了所有可能的在线文章。我的yarn-site.xml文件包含
<property>
<name>yarn.application.classpath</name>
<value>
$HADOOP_CONF_DIR,
$HADOOP_COMMON_HOME/*,
$HADOOP_COMMON_HOME/lib/*,
$HADOOP_HDFS_HOME/*,
$HADOOP_HDFS_HOME/lib/*,
$HADOOP_MAPRED_HOME/*,
$HADOOP_MAPRED_HOME/lib/*,
$HADOOP_YARN_HOME/*,
$HADOOP_YARN_HOME/lib/*,
$HADOOP_HOME/share/hadoop/mapreduce/,
$HADOOP_HOME/share/hadoop/mapreduce/lib/
</value>
</property>
对于集群的每个节点,我检查并设置了这些变量并指向正确的文件夹,实际上$HADOOP_HOME/share/hadoop/mapreduce/是指向hadoop-mapreduce-client-app-2.7.1.jar包含任何建议的 jar 的那个org.apache.hadoop.mapreduce.v2.app.MRAppMaster
?