小编Lon*_*ong的帖子

apktool 和 baksmali 的区别

据我所知,apktool 和 baksmali 都能够从 .apk (.dex) 文件中生成 smali 代码,而 apktool 使用了 dexlib2。它们都是APK打包/解包工具

但是我仍然不清楚apktool 和 smali/baksmali 之间主要区别是什么在 .dex 文件和扩展功能的功能方面?

PS:我刚刚发现的一个区别是 apktool 能够处理一个 apk 中的多个 dex 文件,而 baksmali 不能(至少目前是这样)

我确实尝试过阅读源代码,但由于缺乏经验,我无法真正理解这两个工具的工作流程。如果有人可以建议一些阅读材料或流程图等,我将不胜感激。

谢谢!

android decompiler smali apktool

8
推荐指数
2
解决办法
5578
查看次数

Pytorch 中基于磁带的 autograd 是什么?

我理解autograd是用来暗示自动微分的。但究竟什么是tape-based autogradPytorch为什么有一些肯定或否定它这么多的讨论。

例如:

这个

在pytorch中,没有传统意义上的胶带

我们本身并没有真正构建梯度磁带。但是图表。

但不是这个

Autograd 现在是用于自动微分的核心 Torch 包。它使用基于磁带的系统进行自动区分。

为了进一步参考,请将其与GradientTapein进行比较Tensorflow

python machine-learning tensorflow pytorch tensorflow2.0

8
推荐指数
2
解决办法
607
查看次数

ValueError: 'balanced_accuracy' 不是 scikit-learn 中的有效评分值

我尝试传递给GridSearchCV其他评分指标,例如balanced_accuracy二元分类(而不是默认值accuracy

  scoring = ['balanced_accuracy','recall','roc_auc','f1','precision']
  validator = GridSearchCV(estimator=clf, param_grid=param_grid, scoring=scoring, refit=refit_scorer, cv=cv)
Run Code Online (Sandbox Code Playgroud)

并得到这个错误

ValueError: 'balanced_accuracy' 不是有效的评分值。有效选项为 ['accuracy','adjusted_mutual_info_score','adjusted_rand_score','average_precision','completeness_score','explained_variance','f1','f1_macro','f1_micro','f1_samples','f1_owls_mallows', ','homogeneity_score','mutual_info_score','neg_log_loss','neg_mean_absolute_error','neg_mean_squared_error','neg_mean_squared_log_error','neg_median_absolute_error','neg_median_absolute_error','normalized_mutual_sample_precision,'precision_precision,'precision_precision,'precision_precision,'precision,'precision 'precision_weighted','r2','recall','recall_macro','recall_micro','

这很奇怪,因为 'balanced_accuracy'应该是有效的, 如果没有定义,balanced_accuracy那么代码工作正常

    scoring = ['recall','roc_auc','f1','precision']
Run Code Online (Sandbox Code Playgroud)

此外,上述错误中的评分指标似乎与文档中的不同

任何想法为什么?非常感谢

scikit-learn 版本是 0.19.2

python metrics machine-learning scikit-learn

4
推荐指数
1
解决办法
3122
查看次数

Keras模型评估中的损失

我正在用Keras进行二进制分类 loss='binary_crossentropy'optimizer=tf.keras.optimizers.Adam最后一层是keras.layers.Dense(1, activation=tf.nn.sigmoid)

据我所知,loss价值是在训练阶段用来评估模型的。但是,当我Keras测试数据集使用模型评估时(例如m_recall.evaluate(testData,testLabel),也有一些loss值,并附带accuracy以下输出所示的值)

test size:  (1889, 18525)
1889/1889 [==============================] - 1s 345us/step
m_acc:  [0.5690245978371045, 0.9523557437797776]
1889/1889 [==============================] - 1s 352us/step
m_recall:  [0.24519687695911097, 0.9359449444150344]
1889/1889 [==============================] - 1s 350us/step
m_f1:  [0.502442331737344, 0.9216516675489677]
1889/1889 [==============================] - 1s 360us/step
metric name:  ['loss', 'acc']
Run Code Online (Sandbox Code Playgroud)

loss测试期间的意义/用途是什么?为什么它是如此之高(如0.5690m_acc)?准确度评估对我来说似乎不错(例如,0.9523在中m_acc),但我也很担心loss,这是否会使我的模型表现不佳?

PS m_accm_recall等等都只是我的名字我的模型的方法(它们是由不同的指标受训GridSearchCV

更新: 我只是意识到loss …

machine-learning keras loss-function

3
推荐指数
1
解决办法
1841
查看次数