使用conda通过以下命令在requirements.txt中安装软件包时
conda install --yes --file requirements.txt
如果requirements.txt中的包不可用,则会抛出"无包错误",如下所示:
使用Anaconda Cloud api站点https://api.anaconda.org
获取包元数据:....
错误:当前linux-64通道中找不到匹配的包:nimfa == 1.2.3
您可以在anaconda.org上搜索此软件包
Run Code Online (Sandbox Code Playgroud)conda install --yes --file requirements.txt
是否可以更改此行为,而不是抛出错误,以便在requirements.txt中安装所有可用的包,并为那些不可用的包引发警告?
我想这样,因为错误所说的包nimfa不可用,可以安装pip.因此,如果我可以改变行为pip install -r requirments.txt以仅针对不可用的包发出警告,我可以使用conda install --yes --file requirements.txt.travis.yml中的命令进行跟踪,以便TravisCI尝试从可用的任何地方安装它.
作为一个有趣的家庭研究项目的一部分,我试图找到一种方法来减少/转换一首像音频信号的嗡嗡声(我们人们在听一首歌时感知的基本旋律).在我进一步描述我对此问题的尝试之前,我想提一下,虽然我在分析图像和视频方面有很多经验,但我对音频分析还是全新的.
谷歌搜索后,我发现了一堆旋律提取算法.给定一首歌的复音音频信号(例如.wav文件),它们输出音高轨道---在每个时间点他们估计主音调(来自歌手的声音或某些旋律生成乐器)并追踪主导音乐随着时间推移.
我读了几篇论文,他们似乎计算了这首歌的短时傅立叶变换,然后对频谱图进行了一些分析,以获得并跟踪主导音调.旋律提取只是我正在尝试开发的系统中的一个组件,所以我不介意使用任何可用的算法,只要它在我的音频文件上做得不错并且代码可用.由于我是新手,我很高兴听到有关哪些算法运行良好以及我在哪里可以找到其代码的任何建议.
我发现了两种算法:
我选择Melodia作为不同音乐类型的结果看起来相当令人印象深刻.请检查以查看其结果.你听到的每首音乐的嗡嗡声基本上都是我感兴趣的.
"对于任何一首任意歌曲来说,这都是嗡嗡声的产生,我想在这个问题中帮助你".
该算法(可用作鞋面插件)输出音高轨道--- [time_stamp,pitch/frequency] --- Nx2矩阵,其中第一列是时间戳(以秒为单位),第二列是主音调检测到相应的时间戳.下面显示的是从用紫色覆盖的算法获得的音高轨迹的可视化,其中歌曲的时域信号(上图)和频谱图/短时间 - 傅立叶.音调/频率的负值表示非浊音/非旋律片段的算法主导音调估计.因此,所有音高估计> = 0对应于旋律,其余对我来说并不重要.

现在我想将这个音轨转换回类似音频信号的嗡嗡声 - 正如作者在他们的网站上所说的那样.
下面是我写的MATLAB函数:
function [melSignal] = melody2audio(melody, varargin)
% melSignal = melody2audio(melody, Fs, synthtype)
% melSignal = melody2audio(melody, Fs)
% melSignal = melody2audio(melody)
%
% Convert melody/pitch-track to a time-domain signal
%
% Inputs:
%
% melody - [time-stamp, dominant-frequency]
% an Nx2 matrix with time-stamp in the
% first column and the detected dominant
% frequency at corresponding time-stamp
% …Run Code Online (Sandbox Code Playgroud) python matlab signal-processing pitch-tracking audio-analysis
在微调keras.applications中针对我们自己的数据的预训练模型时,在Keras中预处理数据的正确方法是什么?
Keras提供以下preprocess_input功能
keras.applications.imagenet_utils.preprocess_input
keras.applications.inception_v3.preprocess_input
keras.applications.xception.preprocess_input
keras.applications.inception_resnet_v2.preprocess_input
看里面似乎是inception_v3,xception和inception_resnet_v2,它调用keras.applications.imagenet_utils.preprocess_input用mode='tf'。对于其他模型,它会设置mode='caffe'每个模型执行不同的转换。
在博客文章迁移学习从弗朗索瓦CHOLLET - https://blog.keras.io/building-powerful-image-classification-models-using-very-little-data.html -它归到[0, 1]通过划分255。不应该使用Keras中的preprocess_input函数吗?
还不清楚输入的图像应该是RGB还是BGR?对此是否有任何一致性,还是特定于所使用的预训练模型?
背景:
我正在研究一种自下而上的图像分割方法,其中我首先将图像过度分割为小区域/超像素/超体素,然后我想基于某些标准迭代地合并相邻的过分割区域.我一直在玩的一个标准是测量这两个区域在外观上的相似程度.为了量化一个区域的外观,我使用了几种方法 - 强度统计,纹理特征等.我将我为一个区域计算的所有特征都集成到一个长特征向量中.
题:
给定两个相邻的过分割区域R1和R2,让F1和F2为对应的特征向量.我的问题如下:
- 量化F1和F2之间相似性的好指标是什么?
- 在量化与度量的相似性之前,如何最好地标准化F1和F2?(使用任何监督的规范化方法都是不可行的,因为我不希望我的算法被绑定到一组图像)
我心中的解决方案:
相似度(R1,R2)= dot_product(F1/norm(F1),F2/norm(F2))
换句话说,我首先将F1和F2归一化为单位向量,然后使用两个向量之间的点积作为相似性度量.
我想知道是否有更好的方法来规范化它们并将它们与指标进行比较.如果社区可以指出一些参考文献并写出为什么其他东西比我正在使用的相似性度量更好的原因,我会很高兴.
如何在matlab GUI中显示可滚动的图像网格?
我想要类似于下面显示的内容

这个stackoverflow 文章描述了一种通过将'String'属性设置为指向图像的HTML代码来显示图像的方法.但这需要我将图像保存到磁盘,这不是我想要的选项,因为这些显示是动态启动的.
如果我可以在每个图像中添加一个复选框,那么用户也可以选择它们的一个子集.
我编写了python代码,以编程方式生成卷积神经网络(CNN),用于训练和验证.prototxt文件在caffe中.以下是我的功能:
def custom_net(lmdb, batch_size):
# define your own net!
n = caffe.NetSpec()
# keep this data layer for all networks
n.data, n.label = L.Data(batch_size=batch_size, backend=P.Data.LMDB, source=lmdb,
ntop=2, transform_param=dict(scale=1. / 255))
n.conv1 = L.Convolution(n.data, kernel_size=6,
num_output=48, weight_filler=dict(type='xavier'))
n.pool1 = L.Pooling(n.conv1, kernel_size=2, stride=2, pool=P.Pooling.MAX)
n.conv2 = L.Convolution(n.pool1, kernel_size=5,
num_output=48, weight_filler=dict(type='xavier'))
n.pool2 = L.Pooling(n.conv2, kernel_size=2, stride=2, pool=P.Pooling.MAX)
n.conv3 = L.Convolution(n.pool2, kernel_size=4,
num_output=48, weight_filler=dict(type='xavier'))
n.pool3 = L.Pooling(n.conv3, kernel_size=2, stride=2, pool=P.Pooling.MAX)
n.conv4 = L.Convolution(n.pool3, kernel_size=2,
num_output=48, weight_filler=dict(type='xavier'))
n.pool4 = L.Pooling(n.conv4, kernel_size=2, stride=2, pool=P.Pooling.MAX)
n.fc1 = …Run Code Online (Sandbox Code Playgroud) python neural-network deep-learning caffe conv-neural-network