标签: metrics

两个字符串之间的相关百分比

如何获得C#中两个字符串之间的相关百分比?

c# comparison search metrics

2
推荐指数
1
解决办法
1640
查看次数

mySQL - 大型度量表和繁重的查询性能 - 缓存?

我有一个庞大的数据库,非常迅速地扩展,我有很多繁忙的表,记录用户行为的各个方面.

目前,我有一个工作室,用户可以看到这种用法和行为显然显示在图表等等.事情是,现在加载这些东西是非常密集的.有一个项目有80,000人使用,并需要一个年龄来加载统计数据.

现在,这些表格结构良好,并且在连接等方面编入索引.我已经有了建议并且一直在寻求最佳实践的学习,以尝试帮助最好地准备这些数据.但是,如果在查询/表优化中没有更多的范围,我还能如何加速这个密集的过程?.

我注意到大多数分析都允许您在默认情况下查看到昨天.这有帮助吗?

  1. 这是否意味着mysql上的query_cache可以缓存统计信息?如果查询明天不断结束(从而计算今天的统计数据),它会不会缓存吗?
  2. 每小时编译静态XML等更容易被引用,而不是每次都进行查询吗?
  3. 能怎样?

任何想法都非常欢迎.

php mysql performance metrics

2
推荐指数
1
解决办法
1040
查看次数

Python中的Pairwise Kullback Leibler(或Jensen-Shannon)发散距离矩阵

我有两个矩阵X和Y(在我的大多数情况下它们是相似的)现在我想计算所有行之间的成对KL分歧并将它们输出到矩阵中.例如:

X = [[0.1, 0.9], [0.8, 0.2]]
Run Code Online (Sandbox Code Playgroud)

然后,该函数应该获取kl_divergence(X, X)并计算两个X矩阵的每对行的成对K1发散距离.输出将是2x2矩阵.

在Python中已经有了一些实现吗?如果没有,这应该很容易计算.我想要一些矩阵实现,因为我有很多数据,需要尽可能地保持运行时间.或者,Jensen-Shannon熵也很好.最终这对我来说甚至是更好的解决方案.

python metrics distance matrix

2
推荐指数
1
解决办法
4361
查看次数

安全指标

在执行PCI合规性安全指标扫描时,我收到以下错误消息.有谁知道如何解决这个问题?

*Title: vulnerable web program (phpRPC) Impact: A remote attacker could execute arbitrary commands, create or overwrite files, or view files or directories on the web server.

Data Sent: POST /ie/modules/phpRPC/server.php HTTP/1.0

Host: example.com

Content-type: text/xml Content-Length:162 <?xml version="1.0"?> <methodCall> <methodName>test.method</methodName> <params> <param> <value><base64>'));system(id);exit; </param> </params> </methodCall>

Data Received: ????<img height="1" width="1" style="border- style:none;" alt="" src="//googleads.g.doubleclick.net/p agead/viewthroughconversion/997970389/?value=0&amp;label=PlcJCKu92AQ Q1aPv2wM&amp;guid=ON&amp;script=0"/>

Resolution: 03/09/06 CVE 2006-1032 phpRPC is an xmlrpc library that uses database and rpc-protocol abstraction. It is prone to a remote code …
Run Code Online (Sandbox Code Playgroud)

security metrics pci-dss pci-compliance

2
推荐指数
1
解决办法
1053
查看次数

多个文件的平均循环复杂度

我对几个项目运行了静态代码分析,并从生成的报告中获取了这些项目中每个文件的循环复杂度。现在我想计算整个项目的平均圈复杂度。

我怎样才能最好地实现这一目标?

对我来说,仅将每个文件的循环复杂度值相加然后除以文件数似乎是错误的,因为短头文件与很长的文件具有相同的影响。另外,我想避免通过代码行来衡量文件的重要性。

还有其他方法吗?例如,用中位数?

metrics static-analysis cyclomatic-complexity code-metrics

2
推荐指数
1
解决办法
1669
查看次数

为什么 ffmpeg 生成的 psnr 和 ssim 值与 H264 生成的值不同

我从输入流(mxf 或 mov)中获取生成的 mp4 视频流,并且在执行此操作时我将其-psnr用作 H264 参数。结果是大约。40 或 41。

然后我将输入和输出与 psnr(或 ssim)过滤器进行比较。结果大约 20 或 21。这是一个很大的区别。有没有人知道这种差异的原因?

注意:ssim 结果是相似的。第一个是 ~0.97,第二个是 ~0.83

信噪比

ffmpeg -i input.mov -codec:v libx264 -psnr -f mp4 output.mp4
PSNR (~40)

ffmpeg -i output.mp4 -i input.mov -filter_complex psnr -f mp4 /dev/null
PSNR (~20)
Run Code Online (Sandbox Code Playgroud)

SSIM

ffmpeg -i input.mov -codec:v libx264 -ssim -f mp4 output.mp4
SSIM (~0.98...)

ffmpeg -i output.mp4 -i input.mov -filter_complex ssim -f mp4 /dev/null
PSNR (~0.83...)
Run Code Online (Sandbox Code Playgroud)

metrics ffmpeg video-streaming ssim

2
推荐指数
1
解决办法
4733
查看次数

修改Datadog指标的比例

我有一个时间序列,显示像这样的时间值:

在此输入图像描述

我想改变y轴来表示小时而不是毫秒,即除以3600.任何想法如何做?

time metrics

2
推荐指数
1
解决办法
1321
查看次数

Aws cloudwatch get.metrics 具有多个维度

我正在尝试使用命令 aws cloudwatch get-metrics 来获取“DiskSpaceUtilization”,但结果为空..

"Datapoints": [],
"Label": "DiskSpaceUtilization"
Run Code Online (Sandbox Code Playgroud)

我注意到如果我使用

aws cloudwatch list-metrics --namespace mymetric
Run Code Online (Sandbox Code Playgroud)

度量有多个维度!

        "Namespace": "mymetric",
        "Dimensions": [
            {
                "Name": "MountPath",
                "Value": "/"
            },
            {
                "Name": "InstanceId",
                "Value": "i-aaaaaaa"
            },
            {
                "Name": "Filesystem",
                "Value": "/dev/xvda1"
            }
        ],
        "MetricName": "DiskSpaceUtilization"
Run Code Online (Sandbox Code Playgroud)

有人知道我怎样才能检索这个指标?我必须在命令中输入多少维?

谢谢!

metrics amazon-web-services cloudwatch amazon-cloudwatch

2
推荐指数
1
解决办法
1188
查看次数

为回归模型选择正确的指标

我一直在使用r2 score指标。我知道有几个评估指标,我已经阅读了几篇关于它的文章。因为我还是机器学习的初学者。我仍然很困惑

  1. 什么时候使用它,取决于我们的情况,如果是,请举个例子
  2. 我读了这篇文章,它说r2 score并不简单,我们需要其他东西来衡量我们模型的性能。这是否意味着我们需要 1 个以上的评估指标才能更好地了解我们的模型性能?
  3. 如果我们只通过一个评估指标来衡量我们的模型性能,是否推荐?
  4. 从这篇文章中可以看出,了解我们的数据分布和我们的业务目标有助于我们了解选择合适的指标。这是什么意思?
  5. 如何知道每个指标模型是否“足够好”?

metrics regression machine-learning

2
推荐指数
1
解决办法
1529
查看次数

TF 2.3.0 使用带有样本权重的 tf 数据集训练 keras 模型不适用于指标

我将 sample_weight 作为 tf.data.Dataset 中的第三个元组传递(在掩码的上下文中使用它,所以我的 sample_weight 要么是 0,要么是 1。问题是这个 sample_weight 似乎没有应用于度量计算.(参考:https : //www.tensorflow.org/guide/keras/train_and_evaluate#sample_weights

这是代码片段:

train_ds = tf.data.Dataset.from_tensor_slices((imgs, labels, masks))
train_ds = train_ds.shuffle(1024).repeat().batch(32).prefetch(buffer_size=AUTO)

model.compile(optimizer = Adam(learning_rate=1e-4),
             loss = SparseCategoricalCrossentropy(),
             metrics = ['sparse_categorical_accuracy'])

model.fit(train_ds, steps_per_epoch = len(imgs)//32, epochs = 20)
Run Code Online (Sandbox Code Playgroud)

训练后的损失非常接近于零,但 sparse_categorical_accuracy 不是(大约 0.89)。因此,我高度怀疑为构建 tf.dataset 传入的任何 sample_weight(掩码)都不会在训练期间报告指标时应用,而损失似乎是正确的。我通过对未单独屏蔽的子集运行预测进一步确认,并确认准确度为 1.0

另外,根据文档:

https://www.tensorflow.org/api_docs/python/tf/keras/metrics/SparseCategoricalAccuracy

该指标有 3 个参数:y_true、y_pred、sample_weight

那么如何在度量计算期间传递 sample_weight 呢?这是 keras 框架内 model.fit(...) 的责任吗?到目前为止,我找不到任何谷歌搜索的例子。

metrics keras tensorflow

2
推荐指数
1
解决办法
783
查看次数