小编Din*_*108的帖子

使用xsl删除字符

我需要使用从字符串值中删除以下字符 xsl 1.0

*, /, \, #, %, !, @, $, (, ), &

我想出了以下内容:

translate(translate(translate(string(//xpath/@value),'.',''),'/',''),',','')
Run Code Online (Sandbox Code Playgroud)

在上面的方法中,我将不得不多次复制相同的代码(每个字符一次).

如何在不重复代码的情况下实现相同的目标?

谢谢 :-)

xml xslt xslt-1.0

17
推荐指数
2
解决办法
3万
查看次数

Spark中的默认分区方案

当我执行以下命令时:

scala> val rdd = sc.parallelize(List((1,2),(3,4),(3,6)),4).partitionBy(new HashPartitioner(10)).persist()
rdd: org.apache.spark.rdd.RDD[(Int, Int)] = ShuffledRDD[10] at partitionBy at <console>:22

scala> rdd.partitions.size
res9: Int = 10

scala> rdd.partitioner.isDefined
res10: Boolean = true


scala> rdd.partitioner.get
res11: org.apache.spark.Partitioner = org.apache.spark.HashPartitioner@a
Run Code Online (Sandbox Code Playgroud)

它说有10个分区,分区完成使用HashPartitioner.但是当我执行以下命令时:

scala> val rdd = sc.parallelize(List((1,2),(3,4),(3,6)),4)
...
scala> rdd.partitions.size
res6: Int = 4
scala> rdd.partitioner.isDefined
res8: Boolean = false
Run Code Online (Sandbox Code Playgroud)

它说有4个分区,并且没有定义分区器.那么,什么是Spark中的默认分区方案?/如何在第二种情况下对数据进行分区?

partitioning apache-spark rdd

17
推荐指数
1
解决办法
5176
查看次数

将每个单词的第一个字符转换为大写

我有一个字符串,我需要将每个单词的第一个字母转换为大写字母,然后使用xsl将其转换为小写字母,例如,

输入字符串= dInEsh sAchdeV kApil Muk

期望的输出字符串= Dinesh Sachdev Kapil Muk

虽然,我知道我必须使用翻译功能,但我怎样才能将每个单词的第一个章程翻译成大写字母,并使用XSLT 1.0将所有单词翻译成小写字母

谢谢

xml title-case xslt xslt-1.0

11
推荐指数
2
解决办法
2万
查看次数

Oracle Sequence值未订购

可能重复:
Oracle RAC和序列

我在本地环境中配置了Oracle RAC.我分析了Sequnce的一个问题,即nextVal生成的数字没有排序.假设我第一次得到值为1,第二次得到值为21(我已将序列配置为默认的CACHE 20和NOORDER).

在搜索时我找到了解决方案,我需要对序列进行排序.我有一个问题,哪个是更好的选择,

1)CACHE和ORDER

2)NOCACHE和ORDER

我想知道上面哪一个是更好的选择,为什么?

其次,如果我将序列改为NOCACHE,无论ORDER/NOORDER如何,我都可以实现排序.

谢谢

oracle oracle10g oracle11g

11
推荐指数
1
解决办法
2万
查看次数

为什么在Spark中懒惰地评估persist()

我理解Scala中有两种类型的操作

  1. 转换
  2. 操作

像map(),filter()这样的转换是懒惰的.因此,可以在Action执行上完成该优化.例如,如果我执行action first(),那么Spark将优化为只读取第一行.

但是为什么persist()操作会被懒惰地评估.因为无论我采取哪种方式,热切地或懒惰地,它都将按照存储级别保持整个RDD.

能否详细说明为什么persist()是转型而不是行动.

scala apache-spark

11
推荐指数
2
解决办法
4628
查看次数

Spark RDD- map vs mapPartitions

我阅读了map和mapPartitions之间的理论差异,并且很清楚何时在各种情况下使用它们.

但我下面描述的问题更多地基于GC活动和内存(RAM).请阅读下面的问题: -

=>我写了一个map函数来将Row转换为String.因此,RDD [org.apache.spark.sql.Row]的输入将映射到RDD [String].但是使用这种方法,将为RDD的每一行创建地图对象.因此,创建如此大量的对象可以增加GC活动.

=>为了解决上述问题,我想到了使用mapPartitions.因此,该对象的数量变得等于分区的数量.mapPartitions将Iterator作为输入,并接受返回和java.lang.Iterable.但大多数Iterable,如Array,List等都在内存中.那么,如果我有大量数据,那么以这种方式创建Iterable会导致内存不足吗?或者是否有任何其他集合(java或scala)应该在这里使用(如果内存开始填充,溢出到磁盘)?或者我们应该只使用mapPartitions以防RDD完全在内存中?

提前致谢.任何帮助将不胜感激.

java garbage-collection scala apache-spark

8
推荐指数
1
解决办法
1700
查看次数

Oracle AQ相同的消息提供两次

我在oracle中创建了一个AQ,并用Java编写了2个JMS使用者来监听队列.我有时观察到如果我在队列中产生一些消息; 队列中出队消息的计数大于排队的消息数.这意味着一些消息被消耗了两次.

我用属性创建了队列: - multiple_consumers => FALSE

JMS的消费者正在努力 CLIENT_ACKNOWLEDGE mode

请帮助我了解这种行为的可能原因及其解决方案.因此,我可以复制问题并解决上述问题,并确保排队的消息数等于多个JMS消费者收听同一AQ时出列的消息数.

oracle jms oracle-aq

7
推荐指数
1
解决办法
1130
查看次数

被政策拒绝

我正在使用 SOAPUI 和本地 Java 编写客户端将 SOAP Envelope 发送到第三方 SOAP 服务。作为回应,我正在关注执行,

肥皂信封:

<env:Envelope xmlns:env="http://schemas.xmlsoap.org/soap/envelope/">
   <env:Body>
      <env:Fault>
         <faultcode>env:Client</faultcode>
         <faultstring>Rejected by policy. (from client)</faultstring>
      </env:Fault>
   </env:Body>
</env:Envelope>
Run Code Online (Sandbox Code Playgroud)

例外:

AxisFault
 faultCode: {http://schemas.xmlsoap.org/soap/envelope/}Client
 faultSubcode: 
 faultString: Rejected by policy. (from client)
 faultActor: 
 faultNode: 
 faultDetail: 
    {http://xml.apache.org/axis/}stackTrace:Rejected by policy. (from client)
    at org.apache.axis.message.SOAPFaultBuilder.createFault(SOAPFaultBuilder.java:222)
    at org.apache.axis.message.SOAPFaultBuilder.endElement(SOAPFaultBuilder.java:129)
    at org.apache.axis.encoding.DeserializationContext.endElement(DeserializationContext.java:1087)
    at org.apache.xerces.parsers.AbstractSAXParser.endElement(Unknown Source)
    at org.apache.xerces.impl.XMLNSDocumentScannerImpl.scanEndElement(Unknown Source)
    at org.apache.xerces.impl.XMLDocumentFragmentScannerImpl$FragmentContentDispatcher.dispatch(Unknown Source)
    at org.apache.xerces.impl.XMLDocumentFragmentScannerImpl.scanDocument(Unknown Source)
    at org.apache.xerces.parsers.XML11Configuration.parse(Unknown Source)
    at org.apache.xerces.parsers.XML11Configuration.parse(Unknown Source)
    at org.apache.xerces.parsers.XMLParser.parse(Unknown Source)
Run Code Online (Sandbox Code Playgroud)

异常是否发生在客户端?

有人能帮我找出这个异常的原因吗?我认为该异常发生在客户端。

java axis soap

3
推荐指数
1
解决办法
2万
查看次数

无法删除行键

我在删除Cassandra中的行键时遇到了问题.每当我删除Row Key时,该RowKey包含的所有列都将被删除,但RowKey本身不会被删除.任何人都可以告诉我如何删除一个rowkey,一旦它插入columnfamily.

我期待通过节俭客户端做到这一点.

cassandra cassandra-0.7

3
推荐指数
1
解决办法
3449
查看次数

每次调用new运算符时,java都会创建一个新对象

在java中,当我们调用a时new Constructor(),每次都会创建一个新对象,即; 分配新内存或假设已经为没有任何引用的类创建了许多对象.

因此,java可以返回标记为取消分配的对象,或者每次调用新的构造函数()时java都会创建一个新对象.

我提出这个问题的基本意图是,如果发生这样的事情,那么可以改善性能,因为创建新内存和销毁未经修复的对象的成本将会降低.

java

3
推荐指数
1
解决办法
1215
查看次数

通过源代码确定jar文件的优先级

我在eclipse 3.2.1中有一个java项目

com.abc.Dinesh在源代码中有一个java类.我还有一个jar文件,它有一个具有相同名称和包的类.

我在我的项目中导入了jar文件.但是,在我的源代码中,当我引用类Dinesh时,该类被解析为源而不是二进制版本.我想从jar中引用类文件.

我怎样才能做到这一点?

〜谢谢

java eclipse

3
推荐指数
1
解决办法
2222
查看次数

如何获取列值的类型

我正在使用Java连接到Cassandra.我想做一些事情,比如检查列的数据类型即; 是长还是UTF-8因为,如果它很长,那么我可以得到column.value.getLong()的值,但如果它是UTF-8或其他,我必须将ByteBuffer转换为String.有人可以帮助我如何找到列的类型?

java cassandra cassandra-0.7

2
推荐指数
1
解决办法
3631
查看次数