小编Che*_*het的帖子

我如何用ie6测试我的网站

我在最新的firefox网站上工作,然后将它呈现在一台只有ie6的机器上(它看起来很可怕).无论如何,我可以测试它在IE6中的样子而无需实际下载.我看到ie8有一个兼容模式(显示它在ie7中的样子),是否有类似的东西,即6?

html internet-explorer internet-explorer-6

6
推荐指数
2
解决办法
2635
查看次数

汇编Spark 1.2.0时未解决的依赖关系

我正在尝试在ubuntu上构建Spark 1.2.0,但我遇到依赖问题.

我基本上下载文件解压缩文件夹并运行sbt/sbt/assembly

  • sbt = 0.13.6

  • scala = 2.10.4

sbt.ResolveException: unresolved dependency: org.apache.spark#spark-
network-common_2.10;1.2.0: configuration not public in 
org.apache.spark#spark-network-common_2.10;1.2.0: 'test'. It was 
required from org.apache.spark#spark-network-shuffle_2.10;1.2.0 test
Run Code Online (Sandbox Code Playgroud)

apache-spark

6
推荐指数
1
解决办法
328
查看次数

在"真实世界"应用程序中使用ML

我非常喜欢在大学学习ML.我发现函数式编程通常是一种令人耳目一新的方式来编写某些算法.我听说过F#并且玩了一下.不过,我在ML中编写了一些有趣的函数,并希望将它们集成为我可以在其他应用程序中使用的库.

通常我将我的函数粘贴到SMLnj解释器中.有没有办法可以编译它们?

compiler-construction interpreter functional-programming sml smlnj

5
推荐指数
1
解决办法
1422
查看次数

Spark:如何在所有分区中均匀分布我的记录

我有一个带有 30 条记录的 RDD(键/值对:键是时间戳,值是 JPEG 字节数组)
并且我正在运行 30 个执行程序。我想将此 RDD 重新分区为 30 个分区,以便每个分区获得一条记录并分配给一个执行程序。

当我使用rdd.repartition(30)它时,将我的 rdd 重新分区为 30 个分区,但有些分区获得 2 条记录,有些获得 1 条记录,有些则没有获得任何记录。

在 Spark 中有什么方法可以将我的记录均匀地分布到所有分区。

apache-spark

5
推荐指数
1
解决办法
6612
查看次数

以编程方式添加控件时,占位符未实例化

我有一个ASPX页面,声明了占位符控件.

在Codebehind中,我创建了一个UserControl,并将其添加到占位符中.

protected void Page_Load(object sender, EventArgs e)
{
      UserControl uc = new ChartUserControl();
      myForm.Controls.Add(uc);
}
Run Code Online (Sandbox Code Playgroud)

UserControl反过来有一个占位符,但是当我这样做时,在Page_Load(对于UserControl):

protected void Page_Load(object sender, EventArgs e)
{
    WebControl x = new WebControl();
    userControlPlaceholder.Controls.Add(x);
}
Run Code Online (Sandbox Code Playgroud)

它为我提供了无处不在的"对象引用未设置为对象的实例"异常.

我试过通过调用构造函数来强制实例化,但这让我陷入了其他麻烦.任何帮助,将不胜感激.

c# asp.net user-controls controls pageload

4
推荐指数
1
解决办法
1995
查看次数

为什么Clojure的每次通话时的gensym增加3?

对lisps相当新,但在查看顺序整数生成代码时,我注意到重复调用(gensym)会使前缀后面提供的数字增加3.我很好奇为什么会这样.

user=> (gensym)
G__662
user=> (gensym)
G__665
user=> (gensym)
G__668
user=> (gensym)
G__671
user=> (gensym)
G__674
user=> (gensym)
G__677
Run Code Online (Sandbox Code Playgroud)

我已经看到和理解的结合使用的atominc,但我是新来的gensym功能.

clojure

4
推荐指数
1
解决办法
152
查看次数

我应该使用外键在SQL中显示树关系

我试图在表格中建模树关系.例如,有"类别",类别本身可以在父类别中.

我的架构是:

id int PRIMARY KEY,
parent_id int,
name
Run Code Online (Sandbox Code Playgroud)

我的问题是,我应该将parent_id列标记为外键吗?外国意味着"外部"而不是自我参照.是否有不同类型的钥匙用于此目的?

我的问题类似于: MS SQL中的自引用约束,但我问的是另一个问题,级联不是问题.

sql database database-design foreign-keys foreign-key-relationship

3
推荐指数
2
解决办法
1805
查看次数

朴素贝叶斯分类器使用python

我正在使用scikit-learn来查找文档的Tf-idf权重,然后使用朴素
贝叶斯分类器对文本进行分类.但是文档中所有单词的Tf-idf权重都是负数,除了少数.但据我所知,负值意味着不重要的术语.那么有必要将整个Tf-idf值传递给贝叶斯分类器吗?如果我们只需要通过其中的一小部分,我们该怎么做呢?与linearSVC相比,贝叶斯分类器有多好或多坏?除了使用Tf-idf之外,还有更好的方法在文本中查找标签吗?

谢谢

python machine-learning bayesian scikits scikit-learn

3
推荐指数
2
解决办法
3995
查看次数

Apache Sqoop 和 Spark

为了将大型 SQL 数据加载到 Spark 进行转换和 ML,以下哪个选项在性能方面更好。
选项 1:使用 Spark SQL JDBC 连接器将 SQLData 直接加载到 Spark。
选项2:使用Sqoop以csv格式将SQLData加载到HDFS,然后使用Spark从HDFS读取数据。

请提出将大型 SQL 数据加载到 Spark 的好方法。

apache-spark apache-spark-sql

3
推荐指数
1
解决办法
8416
查看次数

Oracle对某些表的更新无限期挂起

我可以很好地更新一些表,但我的ASP.NET应用程序或SQLPLUS无法更新我拥有的某个表.两者都无限期地挂起.我必须强行退出SQLPLUS.我在运行以下内容的标准OracleCommand对象中都有更新语句:

cmd.ExecuteNonQuery();
Run Code Online (Sandbox Code Playgroud)

但我也有asp:SqlDataSources绑定到GridView.似乎没什么用.

这里有一个类似的问题:Oracle Update挂起.我粗略地认为某些东西必须在这张桌子上有某种锁,但我不知道如何删除它甚至找不到它.任何帮助将不胜感激.

我正在运行Oracle 9i EE 9.2.

database oracle sqlplus

2
推荐指数
1
解决办法
4630
查看次数

循环效率比较

哪个更有效?:

ArrayList<Integer> list = new ArrayList<Integer>();
for(int a : list){
   log.i(tag, a + "");
}

SparseIntArray list2 = new SparseIntArray();
int count = list2.size();
for(int j = 0; j < count; j++) {
   log.i(tag, list2.get(j) + "");
}
Run Code Online (Sandbox Code Playgroud)

或者,是否有更快的方式来读取列表的内容?

performance android loops arraylist

1
推荐指数
1
解决办法
1949
查看次数

从Spring 2到Spring 3完成的更改

最近,当我将一个项目在2.5.6弹簧升级到3.0.5弹簧时,碰巧知道有些库不再存在了,有些库被重命名为spring-agent到spring-instrument ......

是否有任何网站或资源可以参考从春季2 -3迁移过程中所做的这些变化?

java spring

0
推荐指数
1
解决办法
2477
查看次数