小编Tor*_*ren的帖子

使用RBAC API创建用户组?

我找不到如何使用yaml文件在Kubernetes上创建用户组的文档,我想使用他们的电子邮件帐户收集组中的一些经过身份验证的用户

我想写yaml一些类似的东西:

 kind: GoupBinding
 apiVersion: rbac.authorization.k8s.io/v1beta1
 metadata:
   name: "frontend-developers"
   namespace: development
subjects:
- kind: User
  name: a@xyz.com,vv@xyz.com
  apiGroup: ""
Run Code Online (Sandbox Code Playgroud)

rbac kubernetes kubectl

4
推荐指数
1
解决办法
7277
查看次数

python 2.7:通过键的一部分从字典中删除键

我有一个python字典,由tupples组成的字典键,

像这样 :

{
 (u'A_String_0', u'A_String_1', u'B_String_3', u'Remove_Me'): 300, 
 (u'A_String_0', u'B_String_4'): 301, 
 (u'A_String_0', u'A_String_1', u'B_String_3', u'Remove_Key'): 301,
}
Run Code Online (Sandbox Code Playgroud)

当只有部分tupple出现在key中时,我想从字典中删除所有键:

例如 'Remove_'

在这种情况下,必须弹出两个键:一个包含u'Remove_Me',另一个包含u'Remove_Key'

最后字典将如下所示:

{
  (u'A_String_0', u'B_String_4'): 301
}
Run Code Online (Sandbox Code Playgroud)

非常感谢 !

python dictionary python-2.7

3
推荐指数
2
解决办法
200
查看次数

读取数据时如何删除unicode?

我有以下几行Python代码:

trans = data.map(lambda line: line.strip().split())
Run Code Online (Sandbox Code Playgroud)

产生Unicode字符串,例如:

u'Hello',u'word'
Run Code Online (Sandbox Code Playgroud)

我想获取普通的UTF-8或ASCII字符串

'Hello','word' 
Run Code Online (Sandbox Code Playgroud)

我试图将字符串转换为UTF-8,例如

trans = data.map(lambda line: line.strip().split().encode("utf-8"))
Run Code Online (Sandbox Code Playgroud)

要么

trans = data.map(lambda line: line.strip().split().encode('ascii','ignore'))
Run Code Online (Sandbox Code Playgroud)

但这给出了一个错误:

AttributeError: 'list' object has no attribute 'encode'
Run Code Online (Sandbox Code Playgroud)

谁能告诉我该怎么做?

更新:

数据是scv文件,trans是RDD

unicode utf-8 python-2.7 apache-spark pyspark

3
推荐指数
1
解决办法
1万
查看次数

grep文件shell中的确切字符串

我有一个包含两行的主机文件:

1.1.1.1主持人

1.2.3.4 host-MY

我想grep该行只包含主机字符串(而不是包含host-MY的其他行)

我使用:grep -x host/etc/hosts但-x搜索整行匹配提前谢谢

shell grep

2
推荐指数
1
解决办法
4777
查看次数

将Python字典转换为Spark DataFrame

我有一个Python字典:

dic = {
       (u'aaa',u'bbb',u'ccc'):((0.3, 1.2, 1.3, 1.5), 1.4, 1),
       (u'kkk',u'ggg',u'ccc',u'sss'):((0.6, 1.2, 1.7, 1.5), 1.4, 2)
       }
Run Code Online (Sandbox Code Playgroud)

我想将这个字典转换为带有列的Spark DataFrame:

['key', 'val_1', 'val_2', 'val_3', 'val_4', 'val_5', 'val_6']

示例行(1):

key | val_1 |val_2 | val_3 | val_4 | val_5| val_6|

u'aaa',u'bbb',u'ccc' | 0.3 |1.2 |1.3 |1.5 |1.4 |1 |

先感谢您

dictionary dataframe apache-spark apache-spark-sql pyspark

2
推荐指数
1
解决办法
1万
查看次数

Scala - 使用"endsWith"过滤DataFrame

给定一个DataFrame:

 val df = sc.parallelize(List(("Mike","1986","1976"), ("Andre","1980","1966"), ("Pedro","1989","2000")))
      .toDF("info", "year1", "year2")
df.show

 +-----+-----+-----+
 | info|year1|year2|
 +-----+-----+-----+
 | Mike| 1986| 1976|
 |Andre| 1980| 1966|
 |Pedro| 1989| 2000|
 +-----+-----+-----+
Run Code Online (Sandbox Code Playgroud)

我尝试过滤所有df值结束6,但获得异常.我试过了 :

  val filtered = df.filter(df.col("*").endsWith("6"))
  org.apache.spark.sql.catalyst.analysis.UnresolvedException: Invalid call to dataType on unresolved object, tree: ResolvedStar(info#20, year1#21, year2#22)
Run Code Online (Sandbox Code Playgroud)

我也试过这个:

val filtered = df.select(df.col("*")).filter(_ endsWith("6"))
error: missing parameter type for expanded function ((x$1) => x$1.endsWith("6"))
Run Code Online (Sandbox Code Playgroud)

如何解决?谢谢

scala dataframe apache-spark apache-spark-sql

2
推荐指数
1
解决办法
2981
查看次数