小编use*_*147的帖子

使用AWK舍入浮点数

我有一个b.xyz文件,

-19.794325 -23.350704 -9.552335
-20.313872 -23.948248 -8.924463
-18.810708 -23.571757 -9.494047
-20.048543 -23.660052 -10.478968
Run Code Online (Sandbox Code Playgroud)

我想将每个条目限制为三位小数.

我试过这个

awk '{ $1=sprintf("%.3f",$1)} {$2=sprintf("%.3f",$2)} {$3=sprintf("%.3f",$3)} {print $1, $2, $3}' b.xyz
Run Code Online (Sandbox Code Playgroud)

它适用于三列,但如何扩展它以申请n/all列?

awk printf

6
推荐指数
1
解决办法
2万
查看次数

用awk替换列,保留格式

我有一个a.pdb文件,

ATOM      1  N   ARG     1       0.000   0.000   0.000  1.00  0.00           N
ATOM      2  H1  ARG     1       0.000   0.000   0.000  1.00  0.00           H
ATOM      3  H2  ARG     1       0.000   0.000   0.000  1.00  0.00           H
ATOM      4  H3  ARG     1       0.000   0.000   0.000  1.00  0.00           H
Run Code Online (Sandbox Code Playgroud)

a.xyz文件一样

16.388 -5.760 -23.332
17.226 -5.608 -23.768
15.760 -5.238 -23.831
17.921 -5.926 -26.697
Run Code Online (Sandbox Code Playgroud)

我想用a.xyz替换a.pdb的6,7和8列.一旦被替换,我需要维护a.pdb的标签/空格/列.

我试过了

awk 'NR==FNR {fld1[NR]=$1; fld2[NR]=$2; fld3[NR]=$3; next} {$6=fld1[FNR]; $7=fld2[FNR]; $8=fld3[FNR]}1' a.xyz a.pdb 
Run Code Online (Sandbox Code Playgroud)

但它没有保留格式.

format awk replace

0
推荐指数
1
解决办法
1884
查看次数

在Spark中关闭MYSQL JDBC连接

我通过JDBC将数据从MYSQL服务器加载到Spark,但我需要在加载数据后关闭该连接.关闭连接的确切语法是什么?

df_mysql = sqlContext.read.format("jdbc").options(
  url="jdbc:mysql://***/****”,
  driver="com.mysql.jdbc.Driver",
  dbtable="((SELECT jobid, system, FROM Jobs LIMIT 500)  as T)",
  user=“*****”,
  password=“*****”).load()
Run Code Online (Sandbox Code Playgroud)

我试过dbtable.close().那不起作用.

python mysql jdbc apache-spark pyspark

0
推荐指数
1
解决办法
1572
查看次数

标签 统计

awk ×2

apache-spark ×1

format ×1

jdbc ×1

mysql ×1

printf ×1

pyspark ×1

python ×1

replace ×1