我试图解析此页面的评论:http://www.amazon.co.uk/product-reviews/B00143ZBHY
使用以下方法:
码
html # a variable which contains exact html as given at the above page.
from lxml import etree
tree = etree.HTML(html)
r = tree.xpath(".//*[@id='productReviews']/tbody/tr/td[1]/div[9]/text()[4]")
print len(r)
print r[0].tag
Run Code Online (Sandbox Code Playgroud)
产量
0
Traceback (most recent call last):
File "c.py", line 37, in <module>
print r[0].tag
IndexError: list index out of range
Run Code Online (Sandbox Code Playgroud)
p,s,:在firefox的xpath checker插件上使用相同的xpath时我很容易就可以了.但这里没有结果,请帮忙!
我看到 AWS RDS 提供了一个FreeStorageSpace用于监控磁盘使用情况的指标。现在我正在尝试为我的所有 RDS创建一个通用的先发制人的警报,但在上设置了一个理想的阈值FreeStorageSpace是没有意义的。
例如,20G 可能是一个很好的阈值,RDS 的总磁盘空间为 100G,但可能会误导总磁盘空间为 40G 的 RDS。
所以我想知道是否有办法从 RDS获取TotalStorageSpace或UsedStorageSpace度量(直接或间接)。
更新
由于事实已确定,这FreeStorageSpace是 RDS 提供的唯一与磁盘存储相关的指标,关于我们是否/如何为TotalStorageSpace或构建自定义指标的任何想法UsedStorageSpace?
ps:为每个RDS创建单独的警报来评估磁盘使用百分比似乎是浪费时间和资源。
我正在尝试实现Buildkit 的缓存挂载功能。
我的 Dockerfile 是:
# syntax = docker/dockerfile:experimental
FROM python:3.6-alpine
RUN --mount=type=cache,target=/root/.cache/pip pip install pyyaml
Run Code Online (Sandbox Code Playgroud)
指令: docker build --progress=plain -t abc:1 . --no-cache
首次运行输出:
#2 [internal] load .dockerignore
#2 transferring context: 2B done
#2 DONE 0.0s
#1 [internal] load build definition from Dockerfile
#1 transferring dockerfile: 175B done
#1 DONE 0.0s
#3 resolve image config for docker.io/docker/dockerfile:experimental
#3 DONE 2.8s
#4 docker-image://docker.io/docker/dockerfile:experimental@sha256:787107d7f...
#4 CACHED
#5 [internal] load metadata for docker.io/library/python:3.6-alpine
#5 DONE 0.0s
#6 [stage-0 1/2] FROM docker.io/library/python:3.6-alpine …Run Code Online (Sandbox Code Playgroud) 我显示所有可用的桶,代码如下,我有这个结果:
<Bucket: test>
但是你知道它是否可能只有这个结果(没有<Bucket...>,像这样:
测试
import boto
from boto.s3.connection import S3Connection
s3 = boto.connect_s3()
buckets = s3.get_all_buckets()
for key in buckets:
print key
Run Code Online (Sandbox Code Playgroud) 我正在为Codility做准备.我需要找出找到具有大值和多个条目的数组的最快方法是什么?
内置python排序是最快还是我需要实现一些其他排序方法?
我正在 k8s 上使用 GCP Spark 编写 Kubernetes Spark 应用程序。
目前,我陷入无法将环境变量注入容器的困境。
我正在关注这里的文档
显现:
apiVersion: "sparkoperator.k8s.io/v1beta2"
kind: SparkApplication
metadata:
name: spark-search-indexer
namespace: spark-operator
spec:
type: Scala
mode: cluster
image: "gcr.io/spark-operator/spark:v2.4.5"
imagePullPolicy: Always
mainClass: com.quid.indexer.news.jobs.ESIndexingJob
mainApplicationFile: "https://lala.com/baba-0.0.43.jar"
arguments:
- "--esSink"
- "http://something:9200/mo-sn-{yyyy-MM}-v0.0.43/searchable-article"
- "-streaming"
- "--kafkaTopics"
- "annotated_blogs,annotated_ln_news,annotated_news"
- "--kafkaBrokers"
- "10.1.1.1:9092"
sparkVersion: "2.4.5"
restartPolicy:
type: Never
volumes:
- name: "test-volume"
hostPath:
path: "/tmp"
type: Directory
driver:
cores: 1
coreLimit: "1200m"
memory: "512m"
env:
- name: "DEMOGRAPHICS_ES_URI"
value: "somevalue"
labels:
version: 2.4.5 …Run Code Online (Sandbox Code Playgroud)