大脑建模

And*_*ndy 8 artificial-intelligence biological-neural-network neuroscience neural-network large-scale

只是想知道,因为我们每台PC达到1 teraflop,但我们仍然无法模拟昆虫的大脑.有没有人看到过自我学习,自我发展的神经网络的体面实施?

Aid*_*ell 9

我看到了一个有趣的实验,将大鼠大脑的物理神经布局映射到数字神经网络,加权模拟了使用MRI和其他组件采集的每个组件的神经元化学.很有趣.(新科学家或焦点,2期前?)

想到了IBM Blue Brain,请访问 http://news.bbc.co.uk/1/hi/sci/tech/8012496.stm

问题是你正确指出的计算能力.但是对于神经网络的一系列刺激,计算范围往往是指数的,因为刺激遇到更深的嵌套节点.任何复杂的加权算法都意味着在每个节点上花费的时间可能会变得昂贵.领域特定的神经图往往更快,因为它们是专门的.哺乳动物的大脑有许多通用路径,使得教它们变得更难,并且计算机可以在给定的空间/时间内模拟真实的哺乳动物大脑.

真正的大脑也有大量的静态交谈(有些人认为这是创造力或原创思想的源泉).大脑也不会学习使用"直接"刺激/奖励......他们利用过去的非相关事物经验来创造自己的学习.重建神经元是计算空间中的一件事,创造准确的学习是另一回事.千万不要介意多巴胺(昆虫中的章鱼胺)和其他神经化学物质.

想象给予数字大脑LSD或抗抑郁药.作为一个真正的模拟.真棒.我怀疑这将是一个复杂的模拟.


Cha*_*tin 7

我认为你有点假设我们关于神经网络如何工作的想法是一个大规模的大脑的良好模型; 我不确定这是一个很好的假设.地狱,不是很多年前我们没有想到神经胶质细胞对心理功能很重要,长期以来大脑成熟后没有神经发生的想法.

另一方面,神经网络确实似乎很好地处理了一些看似复杂的函数.

所以,这里有一个小问题:你认为人类大脑的计算代表了多少teraflops或petaflops?

  • @Aiden:我真的希望你没有孩子.:-) (5认同)
  • 好吧,我们可以估算一下.大脑有大约1000亿= 10 ^ 11个神经元,每个神经元在大约100毫秒内解决了Hodkins-Huxley方程.HH方程采用10,000 FLOPS的顺序来解决一次.所以我得到了10 ^ 16个人.这就是10 petaflops,不是吗?当然,问题是*为每个HH解决方案提供什么价值*. (3认同)

duf*_*ymo 6

杰夫霍金斯会说神经网络是一个很差的大脑近似.他的"On Intelligence"是一本很棒的读物.