当我使用Theano或Tensorflow训练我的神经网络时,他们将报告每个时期称为"损失"的变量.
我该如何解释这个变量?更高或更低的损失,或者它对我的神经网络的最终性能(准确性)意味着什么?
machine-learning mathematical-optimization neural-network deep-learning objective-function
我正在使用tf.Tensor和tf.concat()处理大型训练数据,我发现连续使用tf.concat()变得缓慢。从文件加载大数据的最佳方法是什么tf.Tensor?
我认为这是在 Javascript 中按数组处理数据的常用方法。要实现这一点,需要执行一些粗略的步骤。
Array.push()所以我想我可以tf.concat()以与上面类似的方式使用。
tf.concat()这是一些代码来测量Array.push()和tf.concat()
import * as tf from "@tensorflow/tfjs"
let t = tf.tensor1d([1])
let addT = tf.tensor1d([2])
console.time()
for (let idx = 0; idx < 50000; idx++) {
if (idx % 1000 == 0) {
console.timeEnd()
console.time()
console.log(idx) …Run Code Online (Sandbox Code Playgroud)