我正在将Eclipse Kepler SR2与m2e结合使用。我有一个依赖于jar的Web项目。
当我对目标程序包使用“运行方式-> Maven Build ...”并检查“检查工作区工件”时,目标中的lib文件夹将包含一个名为依赖项jar的文件夹,而不是jar本身。打包的war还包含一个文件夹而不是jar。但是,当使用m2e部署到tomcat时,将正确部署jar。
我使用2.4版本的maven-war-plugin。
这是我的WAR pom:
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<parent>
<groupId>com.modelity.loans</groupId>
<artifactId>loans-parent</artifactId>
<version>0.0.1-SNAPSHOT</version>
</parent>
<artifactId>loans-web</artifactId>
<packaging>war</packaging>
<dependencies>
<dependency>
<groupId>com.modelity.loans</groupId>
<artifactId>loans-core</artifactId>
<version>0.0.1-SNAPSHOT</version>
<type>jar</type>
</dependency>
</dependencies>
<build>
<plugins>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-war-plugin</artifactId>
<version>2.4</version>
</plugin>
</plugins>
</build>
</project>
Run Code Online (Sandbox Code Playgroud)
这是依赖项jar的工件坐标:
<parent>
<groupId>com.modelity.loans</groupId>
<artifactId>loans-lib</artifactId>
<version>0.0.1-SNAPSHOT</version>
</parent>
<artifactId>loans-core</artifactId>
<packaging>jar</packaging>
Run Code Online (Sandbox Code Playgroud)
我已经看过了maven包目标的调试输出。当战争插件正在处理罐子时,它说
[DEBUG] Processing: loans-core-0.0.1-SNAPSHOT.jar
Run Code Online (Sandbox Code Playgroud)
而不表明该罐子已被复制。稍后在日志中,我看到:
adding directory WEB-INF/lib/loans-core-0.0.1-SNAPSHOT.jar/
Run Code Online (Sandbox Code Playgroud)
我已经尝试了嵌入式Maven(3.0.4)和外部Maven(3.0.5)。我的同事使用开普勒SR1,并遇到相同的问题。
我想我已经讲完了。希望得到一些建议,找不到有关它的任何已报告的错误。
谢谢,Lior
我有一个 spark 作业,它使用 snappy 压缩将数据写入镶木地板文件。parquet 中的一列是重复的 INT64。
当从带有 parquet 1.8.2 的 spark 2.2 升级到带有 parquet 1.10.1 的 spark 3.1.1 时,我目睹了压缩比的严重下降。
例如,对于这个文件(用 spark 2.2 保存),我有以下元数据:
creator: parquet-mr version 1.8.2 (build c6522788629e590a53eb79874b95f6c3ff11f16c)
extra: org.apache.spark.sql.parquet.row.metadata = {"type":"struct","fields":[{"name":"numbers","type":{"type":"array","elementType":"long","containsNull":true},"nullable":true,"metadata":{}}]}
file schema: spark_schema
--------------------------------------------------------------------------------
numbers: OPTIONAL F:1
.list: REPEATED F:1
..element: OPTIONAL INT64 R:1 D:3
row group 1: RC:186226 TS:163626010 OFFSET:4
--------------------------------------------------------------------------------
numbers:
.list:
..element: INT64 SNAPPY DO:0 FPO:4 SZ:79747617/163626010/2.05 VC:87158527 ENC:RLE,PLAIN_DICTIONARY ST:[min: 4, max: 1967324, num_nulls: 39883]
Run Code Online (Sandbox Code Playgroud)
使用 spark 3.1 读取并再次保存为 parquet,我得到以下元数据,并且 parquet …
我正在尝试使用spring-security-kerberos扩展来实现与kerberos的SSO.
我创建了一个keytab文件,在尝试访问我的webapp时出现以下错误:
GSSException: Failure unspecified at GSS-API level (Mechanism level: Checksum failed)
Run Code Online (Sandbox Code Playgroud)
我试着根据这篇文章测试我的keytab .
keytab是使用以下命令创建的:
ktpass /out http-web.keytab /mapuser testing@MYDOMAIN.COM /princ HTTP/testing@MYDOMAIN.COM /pass myPass /ptype KRB5_NT_PRINCIPAL -crypto RC4-HMAC-NT /kvno 0
Run Code Online (Sandbox Code Playgroud)
我的krb5.conf如下
[libdefaults]
default_realm = MYDOMAIN.COM
permitted_enctypes = aes256-cts arcfour-hmac-md5 aes128-cts rc4-hmac des3-cbc-sha1 des-cbc-md5 des-cbc-crc
default_tgs_enctypes = aes256-cts arcfour-hmac-md5 aes128-cts rc4-hmac des3-cbc-sha1 des-cbc-md5 des-cbc-crc
default_tkt_enctypes = aes256-cts arcfour-hmac-md5 aes128-cts rc4-hmac des3-cbc-sha1 des-cbc-md5 des-cbc-crc
kdc_timesync = 1
ccache_type = 4
forwardable = true
proxiable = true
[realms]
MYDOMAIN.COM = { …
Run Code Online (Sandbox Code Playgroud)