我有一个使用React的Web应用程序,我正在尝试使用Selenium RC创建一些测试.我发现,当Selenium更改字段值时,事件未被正确触发.我知道这是一个典型的问题,正如WebDriver FAQ所证明的那样,我尝试过一些不同的东西,比如使用onFocus而不是onChange,并确保使用sendKeys()vs type()来改变焦点和进出,以编程方式调用该事件,以及我可以在网上找到的任何其他建议,但我无法使其正常工作.
作为我正在尝试做的一个简单示例,我删除了评论框反应示例.我有一个textarea输入框和一个div应该用textarea的值更新.Selenium可以更新textarea,但是当它发生时div不会改变.
这是我的reactjs代码:
/** @jsx React.DOM */
var MarkdownEditor = React.createClass({
getInitialState: function() {
return {value: 'Original Text'};
},
handleChange: function() {
this.setState({value: this.refs.textarea.getDOMNode().value});
},
render: function() {
return (
<div className="MarkdownEditor">
<h3>Input</h3>
<textarea
onChange={this.handleChange}
ref="textarea"
defaultValue={this.state.value} />
<h3>Output</h3>
<div
className="content"
id="content2",
dangerouslySetInnerHTML={{
__html: this.state.value
}}
/>
</div>
);
}
});
React.renderComponent(<MarkdownEditor />, document.getElementById('content'));
Run Code Online (Sandbox Code Playgroud)
这是我目前的Selenium测试用例:
import com.thoughtworks.selenium.*;
import org.junit.After;
import org.junit.Before;
import org.junit.Test;
import static org.junit.Assert.*;
import java.util.regex.Pattern;
import java.util.Properties;
import junit.framework.TestCase;
public class textTest …Run Code Online (Sandbox Code Playgroud) 我一直在尝试设置hadoop的CDH4安装.我有12台机器,标记为hadoop01 - hadoop12,并且namenode,作业跟踪器和所有数据节点都已启动.我能够查看dfshealth.jsp并看到它找到了所有数据节点.
但是,每当我尝试启动辅助名称节点时,它都会给出异常:
Starting Hadoop secondarynamenode: [ OK ]
starting secondarynamenode, logging to /var/log/hadoop-hdfs/hadoop-hdfs-secondarynamenode-hadoop02.dev.terapeak.com.out
Exception in thread "main" java.lang.IllegalArgumentException: Invalid URI for NameNode address (check fs.defaultFS): file:/// has no authority.
at org.apache.hadoop.hdfs.server.namenode.NameNode.getAddress(NameNode.java:324)
at org.apache.hadoop.hdfs.server.namenode.NameNode.getAddress(NameNode.java:312)
at org.apache.hadoop.hdfs.server.namenode.NameNode.getServiceAddress(NameNode.java:305)
at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.initialize(SecondaryNameNode.java:222)
at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.<init>(SecondaryNameNode.java:186)
at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.main(SecondaryNameNode.java:578)
Run Code Online (Sandbox Code Playgroud)
这是辅助名称节点上的hdfs-site.xml文件:
<configuration>
<property>
<name>dfs.name.dir</name>
<value>/data/1/dfs/nn</value>
</property>
<property>
<name>dfs.namenode.http-address</name>
<value>10.100.20.168:50070</value>
<description>
The address and the base port on which the dfs NameNode Web UI will listen.
If the port is 0, the server will start on a free …Run Code Online (Sandbox Code Playgroud) 我已经在我的大多数实例所在的主要 VPC 中设置了一个应用程序负载均衡器。我在另一个托管 docker 服务的 VPC 中有一些实例,我想设置规则以在http://domain.com/services/访问这些实例。我在两个 VPC 之间启用了对等互连,并创建了一个目标组,但 ALB 仅列出其自己的 VPC 内的目标组。有什么方法可以访问对等 VPC 中的目标组,还是我运气不好?到目前为止,我一直无法在谷歌上找到任何线索。我已确保 ALB 中的子网通过 VPC 对等互连进行路由,但这并没有帮助。
无论是从不同的客户端服务器提交一堆hadoop作业还是从同一个客户端服务器提交一堆hadoop作业,它对资源是否有任何可衡量的影响?我想不会因为所有工作都是在集群中完成的.它是否正确?
我在日期范围内运行了一堆m/r报告,现在有一系列目录,如:
/user/michael/output/TrueListingSellThroughFromLeafCategory/{20120101,20120102,20120103,20120104,20120105,20120106,20120107}
/user/michael/output/TrueListingSellThroughFromLeafCategory/{20120108,20120109,20120110,20120111,20120112,20120113,20120114}
/user/michael/output/TrueListingSellThroughFromLeafCategory/{20120115,20120116,20120117,20120118,20120119,20120120,20120121}
Run Code Online (Sandbox Code Playgroud)
我在浏览这些目录时遇到了很多困难.如果我尝试ls其中一个,它会将日期作为列表,并为每个目录查找不同的目录.如果我逃避括号,我得到一个没有这样的文件或目录错误.如果我用%7B和%7D替换大括号,它就类似了.
如果我通配那个级别,那么我可以浏览更低:
/user/michael/output/TrueListingSellThroughFromLeafCategory/*
Run Code Online (Sandbox Code Playgroud)
但是一次检索一个就好了!我怎样才能做到这一点?
hadoop ×3
amazon-ec2 ×1
cloudera ×1
hdfs ×1
mapreduce ×1
reactjs ×1
selenium ×1
selenium-rc ×1