Bog*_*dan 5 java android speech-recognition neural-network tensorflow
我正在尝试使用在Android应用程序中通过简单音频识别Tensorlow教程训练的模型,但是我想在网络中而不是在网络上实现三个第一层。基本上,我使用了Tensorflow教程中的训练(不做任何更改),但是冻结了模型而没有解码示例数据,计算频谱图和mfcc:
wav_data_placeholder
Tensor("wav_data:0, shape=(), dtype=string)
Run Code Online (Sandbox Code Playgroud)
coded_sample_data
DecodeWav(audio=(tf.Tensor 'decoded_sample_data:0' shape=(16000, 1) dtype=flat32), sample_rate(tf.Tensor 'decoded_sample_data:1' shape=() dtype=int32))
Run Code Online (Sandbox Code Playgroud)
频谱图
Tensor("AudioSpectrogram:0, shape=(1, 98, 257), dtype=float32)
Run Code Online (Sandbox Code Playgroud)
指纹输入
Tensor("Mfcc:0, shape=(1, 98, 40), dtype=float32)
Run Code Online (Sandbox Code Playgroud)
因此,我的冻结模型具有输入形状(1、98、40),并采用mfcc方法计算得出的值,该方法具有来自频谱图输出的输入值和来自解码样本数据的输入。
我在Java中尝试了librosa mfcc实现,但不幸的是,它没有提供相同的结果。
如何在Android应用程序中计算.wav文件,以成功满足模型输入以获得正确的预测?
| 归档时间: |
|
| 查看次数: |
92 次 |
| 最近记录: |