我正在尝试获取当前未分配给实例的所有弹性IP.
使用此方法很容易获得所有弹性IP: aws ec2 describe-addresses
从这里开始,很容易过滤掉任何没有的结果"AssociationId".但是,我不知道如何使用它--query.
我知道该--query选项使用JMESPath来过滤结果,但我不知道如何告诉它返回所有没有结果的结果AssociationId.有帮助吗?
谢谢.
我有一个指向磁盘上文件的路径,比如说:C:\folder\dir\dir2\file.txt.在代码中,如果在处理此文件时抛出异常,它将输出整个路径.理想情况下,不打印整个目录就好了../../dir2/file.txt.
看起来我应该能够使用这种java.nio.file relativize方法,我只是不确定如何.
Path file; // C:\folder\dir\di2\file.txt
file.relativize(file.getParent());
Run Code Online (Sandbox Code Playgroud)
我正在以错误的方式接近这个我敢肯定,只是不肯定如何完成我想要的.
我将解析与HTTP头/消息具有相同格式的元数据.
我正在阅读RFC 2616,我试图更清楚地理解这一点.
每个HTTP标头是否由CRLF(\ r \n)分隔,然后是标头和邮件正文CRLFCRLF(\ r \n \n \n \n)之间的分隔符?我找不到(或者我错过了)任何详细说明标准的东西.
谢谢.
这应该是一个简单的问题。当我按下按钮时,我想淡出一张图像并淡入新的图像。我有一个绑定到这个功能的按钮:
function changeBackground() {
var background = document.getElementById("background");
var h_background = document.getElementById("background_hidden")
$('#background').fadeOut('slow', function() {$('#background_hidden').fadeIn('slow')});
}
Run Code Online (Sandbox Code Playgroud)
在 CSS 中,h_background 有一个 display: none; 属性。使用此功能,当前图像将淡出,另一个将显示但不会淡入 - 它突然出现。
关于我可能做错了什么的任何想法?
添加了一个 jsfiddle,但它目前不起作用 - 试图找出原因。 http://jsfiddle.net/qrCjA/8/
我在成功调度作业时遇到了一些问题而没有得到标题中提到的错误,具体来说: The job (CRAWLS.my_repos) referenced by the trigger does not exist. [See nested exception: org.quartz.JobPersistenceException: The job (CRAWLS.my_repos) referenced by the trigger does not exist.]
这里看一下代码......其中一切看起来都应该没问题.
runJob方法......需要注意的主要问题是它在这一行中失败了:m_scheduler.scheduleJob(trigger);方法的其余部分是存在的,以防其余部分有用.
public void runJob(JobInfo jobInfo,
com.lawson.search.spi.common.Properties jobProperties)
{
try {
JobDataMap jobDataMap = QuartzUtils.createJobDataMapFromLesProperties(jobProperties);
if (jobExists(jobInfo)) {
m_scheduler.triggerJob(jobKey(jobInfo.getName(), jobInfo.getGroup()), jobDataMap);
} else {
JobDetail job = QuartzUtils.createJobDetailFromJobInfo(jobInfo);
Trigger trigger = newTrigger()
.forJob(job)
.withIdentity(getImmediateTriggerName(jobInfo))
.build();
m_scheduler.scheduleJob(trigger);
}
} catch (SchedulerException e) {
String msg = "runJob: " + jobInfo;
if (s_log.isDebugEnabled()) {
s_log.debug(msg, …Run Code Online (Sandbox Code Playgroud) 我已经用Google搜索了一些答案,但到目前为止我找到的所有内容都已过时了.是否有类似于Mozilla Firefox Addon的Google Chrome Page Action?
或者有没有一种很好的方法来禁用/灰显Firefox中的浏览器操作图标,让用户知道他们不能使用扩展名,除非访问适当的URL?
谢谢.
我在使用 Apache Storm 时遇到了一个奇怪的问题。我有一个 KafkaSpout 连接到一个包含 10 条消息的 Kafka 集群。
Bolt 接收每条消息并正确处理它们,因为在 Storm UI 中它们被列为“已确认”。但是,storm UI 下列出的 Spout 表示所有元组都失败了。
我相信这会导致 spout 再次重新发送所有消息......所以我看到 Storm Bolt 打印出消息 1-10,然后一遍又一遍地以相同的顺序打印出来。
我正在适当地调用.ack()和.fail()方法,我只是不知道为什么 Spout 会将它们列为失败。
有什么想法吗?
我正在尝试删除工作区(或将其克隆为看起来像父级,但我似乎也无法做到).但是,当我尝试时,我收到此消息:Cannot remove workspace test_workspace, because it has a non-empty default group.
根据我的阅读,这意味着有活动文件(如流右侧的3个小绿点所示).我已经尝试了一切让它们消失,但它们似乎只是坚持下去,因此导致我无法删除流.
或者,我可以完全消灭流并替换为父版本,但我似乎也无法做到这一点.
任何帮助将不胜感激.
我正在尝试制作一个非常简单的Kafka Producer,我目前正在关注生产者示例,除了我的生产者没有分区器类.
将所需文件导出到jar后,我将它们传输到我的Linux映像并尝试运行它.
我得到这个例外:
Exception in thread "main" java.lang.reflect.InvocationTargetException
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at org.eclipse.jdt.internal.jarinjarloader.JarRsrcLoader.main(JarRsrcLoader.java:58)
Caused by: java.lang.NoClassDefFoundError: org/apache/kafka/common/utils/Utils
at kafka.client.ClientUtils$$anonfun$parseBrokerList$1.apply(ClientUtils.scala:103)
at kafka.client.ClientUtils$$anonfun$parseBrokerList$1.apply(ClientUtils.scala:102)
at scala.collection.TraversableLike$$anonfun$map$1.apply(TraversableLike.scala:194)
at scala.collection.TraversableLike$$anonfun$map$1.apply(TraversableLike.scala:194)
at scala.collection.mutable.ResizableArray$class.foreach(ResizableArray.scala:60)
at scala.collection.mutable.ArrayBuffer.foreach(ArrayBuffer.scala:44)
at scala.collection.TraversableLike$class.map(TraversableLike.scala:194)
at scala.collection.mutable.ArrayBuffer.map(ArrayBuffer.scala:44)
at kafka.client.ClientUtils$.parseBrokerList(ClientUtils.scala:102)
at kafka.producer.BrokerPartitionInfo.<init>(BrokerPartitionInfo.scala:32)
at kafka.producer.async.DefaultEventHandler.<init>(DefaultEventHandler.scala:41)
at kafka.producer.Producer.<init>(Producer.scala:60)
at kafka.javaapi.producer.Producer.<init>(Producer.scala:26)
at producers.HelloWorldProducer.main(HelloWorldProducer.java:20)
... 5 more
Caused by: java.lang.ClassNotFoundException: org.apache.kafka.common.utils.Utils
at java.net.URLClassLoader$1.run(URLClassLoader.java:366)
at java.net.URLClassLoader$1.run(URLClassLoader.java:355)
at java.security.AccessController.doPrivileged(Native Method)
at java.net.URLClassLoader.findClass(URLClassLoader.java:354)
at java.lang.ClassLoader.loadClass(ClassLoader.java:425)
at java.lang.ClassLoader.loadClass(ClassLoader.java:358)
... 19 more
Run Code Online (Sandbox Code Playgroud)
在看了kafka jar之后,我发现utils …
我正在尝试使用HBase Java API将数据写入HBase.我通过Ambari安装了Hadoop/HBase.
以下是当前配置的配置方式:
final Configuration CONFIGURATION = HBaseConfiguration.create();
final HBaseAdmin HBASE_ADMIN;
HBASE_ADMIN = new HBaseAdmin(CONFIGURATION)
Run Code Online (Sandbox Code Playgroud)
当我尝试写入HBase时,我会检查以确保该表存在
!HBASE_ADMIN.tableExists(tableName)
Run Code Online (Sandbox Code Playgroud)
如果没有,请创建一个新的.但是,在尝试检查表是否存在时,似乎会抛出异常.
我想知道我是否没有正确连接到HBase ...是否有任何好的方法来验证配置是否正确以及我是否连接到HBase?我得到的例外情况如下.
谢谢.
java.lang.RuntimeException: java.lang.NullPointerException
at org.apache.hadoop.hbase.client.RpcRetryingCaller.callWithoutRetries(RpcRetryingCaller.java:209)
at org.apache.hadoop.hbase.client.ClientScanner.call(ClientScanner.java:288)
at org.apache.hadoop.hbase.client.ClientScanner.nextScanner(ClientScanner.java:268)
at org.apache.hadoop.hbase.client.ClientScanner.initializeScannerInConstruction(ClientScanner.java:140)
at org.apache.hadoop.hbase.client.ClientScanner.<init>(ClientScanner.java:135)
at org.apache.hadoop.hbase.catalog.MetaReader.fullScan(MetaReader.java:597)
at org.apache.hadoop.hbase.client.HTable.getScanner(HTable.java:802)
at org.apache.hadoop.hbase.catalog.MetaReader.tableExists(MetaReader.java:359)
at org.apache.hadoop.hbase.client.HBaseAdmin.tableExists(HBaseAdmin.java:287)
at org.apache.hadoop.hbase.client.HBaseAdmin.tableExists(HBaseAdmin.java:301)
at com.business.project.hbase.HBaseMessageWriter.getTable(HBaseMessageWriter.java:40)
at com.business.project.hbase.HBaseMessageWriter.write(HBaseMessageWriter.java:59)
at com.business.project.hbase.HBaseMessageWriter.write(HBaseMessageWriter.java:54)
at com.business.project.storm.bolt.package.exampleBolt.execute(exampleBolt.java:19)
at backtype.storm.daemon.executor$fn__5697$tuple_action_fn__5699.invoke(executor.clj:659)
at backtype.storm.daemon.executor$mk_task_receiver$fn__5620.invoke(executor.clj:415)
at backtype.storm.disruptor$clojure_handler$reify__1741.onEvent(disruptor.clj:58)
at backtype.storm.utils.DisruptorQueue.consumeBatchToCursor(DisruptorQueue.java:125)
at backtype.storm.utils.DisruptorQueue.consumeBatchWhenAvailable(DisruptorQueue.java:99)
at backtype.storm.disruptor$consume_batch_when_available.invoke(disruptor.clj:80)
at backtype.storm.daemon.executor$fn__5697$fn__5710$fn__5761.invoke(executor.clj:794)
at backtype.storm.util$async_loop$fn__452.invoke(util.clj:465)
at clojure.lang.AFn.run(AFn.java:24)
at java.lang.Thread.run(Thread.java:745)
Caused by: java.lang.NullPointerException
at org.apache.hadoop.hbase.zookeeper.ZooKeeperWatcher.getMetaReplicaNodes(ZooKeeperWatcher.java:269)
at org.apache.hadoop.hbase.zookeeper.MetaRegionTracker.blockUntilAvailable(MetaRegionTracker.java:241)
at …Run Code Online (Sandbox Code Playgroud) java ×5
apache-storm ×2
accurev ×1
amazon-ec2 ×1
apache-kafka ×1
aws-cli ×1
elastic-ip ×1
hadoop ×1
hbase ×1
http ×1
http-headers ×1
javascript ×1
jquery ×1
nio ×1