我找不到如何使用yaml文件在Kubernetes上创建用户组的文档,我想使用他们的电子邮件帐户收集组中的一些经过身份验证的用户
我想写yaml一些类似的东西:
kind: GoupBinding
apiVersion: rbac.authorization.k8s.io/v1beta1
metadata:
name: "frontend-developers"
namespace: development
subjects:
- kind: User
name: a@xyz.com,vv@xyz.com
apiGroup: ""
Run Code Online (Sandbox Code Playgroud) 我有一个python字典,由tupples组成的字典键,
像这样 :
{
(u'A_String_0', u'A_String_1', u'B_String_3', u'Remove_Me'): 300,
(u'A_String_0', u'B_String_4'): 301,
(u'A_String_0', u'A_String_1', u'B_String_3', u'Remove_Key'): 301,
}
Run Code Online (Sandbox Code Playgroud)
当只有部分tupple出现在key中时,我想从字典中删除所有键:
例如 'Remove_'
在这种情况下,必须弹出两个键:一个包含u'Remove_Me',另一个包含u'Remove_Key'
最后字典将如下所示:
{
(u'A_String_0', u'B_String_4'): 301
}
Run Code Online (Sandbox Code Playgroud)
非常感谢 !
我有以下几行Python代码:
trans = data.map(lambda line: line.strip().split())
Run Code Online (Sandbox Code Playgroud)
产生Unicode字符串,例如:
u'Hello',u'word'
Run Code Online (Sandbox Code Playgroud)
我想获取普通的UTF-8或ASCII字符串
'Hello','word'
Run Code Online (Sandbox Code Playgroud)
我试图将字符串转换为UTF-8,例如
trans = data.map(lambda line: line.strip().split().encode("utf-8"))
Run Code Online (Sandbox Code Playgroud)
要么
trans = data.map(lambda line: line.strip().split().encode('ascii','ignore'))
Run Code Online (Sandbox Code Playgroud)
但这给出了一个错误:
AttributeError: 'list' object has no attribute 'encode'
Run Code Online (Sandbox Code Playgroud)
谁能告诉我该怎么做?
更新:
数据是scv文件,trans是RDD
我有一个包含两行的主机文件:
1.1.1.1主持人
1.2.3.4 host-MY
我想grep该行只包含主机字符串(而不是包含host-MY的其他行)
我使用:grep -x host/etc/hosts但-x搜索整行匹配提前谢谢
我有一个Python字典:
dic = {
(u'aaa',u'bbb',u'ccc'):((0.3, 1.2, 1.3, 1.5), 1.4, 1),
(u'kkk',u'ggg',u'ccc',u'sss'):((0.6, 1.2, 1.7, 1.5), 1.4, 2)
}
Run Code Online (Sandbox Code Playgroud)
我想将这个字典转换为带有列的Spark DataFrame:
['key', 'val_1', 'val_2', 'val_3', 'val_4', 'val_5', 'val_6']
示例行(1):
key | val_1 |val_2 | val_3 | val_4 | val_5| val_6|
u'aaa',u'bbb',u'ccc' | 0.3 |1.2 |1.3 |1.5 |1.4 |1 |
先感谢您
给定一个DataFrame:
val df = sc.parallelize(List(("Mike","1986","1976"), ("Andre","1980","1966"), ("Pedro","1989","2000")))
.toDF("info", "year1", "year2")
df.show
+-----+-----+-----+
| info|year1|year2|
+-----+-----+-----+
| Mike| 1986| 1976|
|Andre| 1980| 1966|
|Pedro| 1989| 2000|
+-----+-----+-----+
Run Code Online (Sandbox Code Playgroud)
我尝试过滤所有df值结束6,但获得异常.我试过了 :
val filtered = df.filter(df.col("*").endsWith("6"))
org.apache.spark.sql.catalyst.analysis.UnresolvedException: Invalid call to dataType on unresolved object, tree: ResolvedStar(info#20, year1#21, year2#22)
Run Code Online (Sandbox Code Playgroud)
我也试过这个:
val filtered = df.select(df.col("*")).filter(_ endsWith("6"))
error: missing parameter type for expanded function ((x$1) => x$1.endsWith("6"))
Run Code Online (Sandbox Code Playgroud)
如何解决?谢谢
apache-spark ×3
dataframe ×2
dictionary ×2
pyspark ×2
python-2.7 ×2
grep ×1
kubectl ×1
kubernetes ×1
python ×1
rbac ×1
scala ×1
shell ×1
unicode ×1
utf-8 ×1