我是神经网络的初学者.我正在学习感知器.我的问题是为什么权重向量垂直于决策边界(超平面)?我提到了很多书,但都提到重量向量与决策边界垂直,但没有人说为什么?
任何人都可以给我一本书的解释或参考吗?
artificial-intelligence machine-learning perceptron biological-neural-network neural-network
我编写了一个非定向神经网络.有点像大脑,所有神经元都在同一时间更新,并且没有明确的层.
现在我想知道,疼痛是如何起作用的?我如何构建一个神经网络,以便"痛苦"信号使它想要做任何事情来摆脱所说的痛苦.
artificial-intelligence biological-neural-network neural-network
只是想知道,因为我们每台PC达到1 teraflop,但我们仍然无法模拟昆虫的大脑.有没有人看到过自我学习,自我发展的神经网络的体面实施?
artificial-intelligence biological-neural-network neuroscience neural-network large-scale
我一直在阅读前馈人工神经网络(ANN),通常他们需要训练来修改它们的权重以获得所需的输出.一旦调谐(生物网络不一定),它们在接收相同输入时也将始终产生相同的输出.
然后我开始阅读关于不断发展的神经网络.然而,进化通常涉及将两个亲本基因组重组到一个新的基因组中,没有"学习"但通过健康测试真正重组和验证.
我在想,人类大脑管理它自己的联系.它创造了联系,增强了一些,削弱了其他人.
是否存在允许这种情况的神经网络拓扑?神经网络一旦发生不良反应,或者相应地调整它的权重,并可能创建随机的新连接(我不确定大脑是如何创建新连接的,但即使我没有,也会产生随机变异的机会)一个新的连接可以减轻这种情况).一个好的反应会加强这些联系.
我相信这种类型的拓扑被称为图灵B型神经网络,但我还没有看到任何编码示例或论文.
在尖峰神经网络领域应该从哪本书开始?我知道2002年出版的Gerstner的“ Spiking Neuron Models”。是否有新书或更合适?我有数学和人工神经网络的背景。
如果在此域中有一些不错的文章或概述,请将它们添加到列表中。
谢谢。
后期编辑
卡雷尔的答案:
“这取决于尖刺神经网络的意思-至少有几种基本观点。格斯特纳代表了第一个观点-他专注于生物神经元的建模。而他2002年的书确实是理解生物的一个很好的起点。 -神经元的物理模型,过去也可以在html中找到这本书。
另一方面,在计算机科学上下文中,“加标神经元”通常是指SRMo模型(峰值响应模型),它也可以用作经典基于Percepron的网络的替代方法。
Wolfgang Maass(http://www.igi.tugraz.at/maass/)的作品对此模型进行了很好的描述。他专注于模型的计算能力,并将SRM模型与percepron和RBF单元进行了比较。
如果要在网络中使用该模型,我建议您使用派生了SpikeProp算法的Sander Bohte(http://homepages.cwi.nl/~sbohte/)的作品。
(我个人派生了SpikeProp的一个变体,该变体足够快以用于实词应用。)
我正在尝试预处理生物数据以训练神经网络,尽管对各种归一化方法进行了广泛的搜索和重复演示,但我并不知道应该使用哪种方法.特别是我有许多输入变量,它们是正偏态的,并且一直试图确定是否存在最合适的归一化方法.
我还担心这些输入的性质是否会影响网络的性能,因此已经尝试过数据转换(特别是日志转换).但是,有些输入有很多零,但也可能是小的十进制值,并且似乎受到log(x + 1)(或者从1到0.0000001的任何数字)的高度影响,结果分布未能接近正常(或者仍然是倾斜或变为双峰,在最小值处具有尖峰).
这些与神经网络有关吗?即.我应该使用特定的特征转换/规范化方法来解释偏斜的数据,还是应该忽略它并选择规范化方法并推进?
对此事的任何建议将不胜感激!
谢谢!
machine-learning normalization biological-neural-network neural-network
我不了解 NEAT 算法如何获取输入,然后根据连接基因输出数字,我熟悉在固定拓扑神经网络中使用矩阵来前馈输入,但是,由于 NEAT 中的每个节点都有自己的数字连接数,并且 \xe2\x80\x99t 不一定连接到每个其他节点,我不\xe2\x80\x99t 理解,经过大量搜索,我可以\xe2\x80\x99t 找到 NEAT 如何根据输入。
\n\n有人可以解释它是如何工作的吗?
\nmachine-learning neat biological-neural-network neural-network
我正在尝试使用已发布的所有序列来构建数据库细菌类型,以使用 bowtie2 进行映射来计算我对这个数据库的读取覆盖率,为此,我将我从 ncbi 下载的所有基因组序列合并到一个 fasta_library 中(我合并了 74 个文件在 fasta 文件中),问题是在这个 fasta 文件(我创建的库)中我有很多重复的序列,这在很大程度上影响了覆盖率,所以我问是否有任何方法可以消除重复我的 Library_File 中有,或者是否有任何方法可以在没有重复的情况下合并序列,或者是否有任何其他方法可以计算我的读取对参考序列的覆盖率
我希望我足够清楚,如果有什么不清楚的请告诉我。
我正在尝试使用FFT加速神经模拟器的计算.
等式是:
(1)\ sum(j = 1到N)(w(i-j)*s_NMDA [j])
其中s_NMDA是长度为N的向量,w由以下定义:
(2)W(j)的双曲正切= [1 /(2*西格玛*P)]*EXP(-abs(J)/(西格玛*P)]
sigma和p是常量.
(有没有更好的方法在stackoverflow上呈现方程?)
必须对N个神经元进行计算.由于(1)仅取决于绝对距离abs(i-j),因此应该可以使用FFT(卷积定理)来计算它.
我试图使用FFTW实现这一点,但结果与预期结果不符.我之前从未使用过FFTW,现在我不确定如果我对卷积定理的假设是假的,那么我的实现是不正确的.
void f_I_NMDA_FFT(
const double **states, // states[i][6] == s_NMDA[i]
const unsigned int numNeurons)
{
fftw_complex *distances, *sNMDAs, *convolution;
fftw_complex *distances_f, *sNMDAs_f, *convolution_f;
fftw_plan p, pinv;
const double scale = 1./numNeurons;
distances = (fftw_complex *)fftw_malloc(sizeof(fftw_complex) * numNeurons);
sNMDAs = (fftw_complex *)fftw_malloc(sizeof(fftw_complex) * numNeurons);
convolution = (fftw_complex *)fftw_malloc(sizeof(fftw_complex) * numNeurons);
distances_f = (fftw_complex *)fftw_malloc(sizeof(fftw_complex) * numNeurons);
sNMDAs_f = (fftw_complex *)fftw_malloc(sizeof(fftw_complex) * numNeurons);
convolution_f = (fftw_complex *)fftw_malloc(sizeof(fftw_complex) * …Run Code Online (Sandbox Code Playgroud) 我在神经网络上做项目.我想在matlab中使用AND,OR,X-OR或任何SMALL应用程序的演示代码.谢谢
biopython ×1
c++ ×1
fft ×1
fftw ×1
large-scale ×1
math ×1
matlab ×1
neat ×1
neuroscience ×1
perceptron ×1