小编Fly*_*per的帖子

为什么ReLU是非线性激活功能?

据我了解,在深度神经网络中,我们在应用权重(w)和偏差(b)后使用激活函数(g)(z := w * X + b | a := g(z)).因此有一个组合函数(g o z)和激活函数使得我们的模型可以学习除线性函数之外的函数.我看到Sigmoid和Tanh激活函数使我们的模型非线性,但是我看到ReLu(它取0和z的最大值)可以使模型非线性...

假设每个Z都是正数,那就好像没有激活函数......

所以我的问题是为什么ReLu在神经网络中制作非线性模型?

machine-learning neural-network deep-learning activation-function relu

2
推荐指数
1
解决办法
1257
查看次数

切片在减速器中的状态自引用

在使用 redux 的工具包更新切片的 reducer 中的状态时,我遇到了循环引用的问题,例如:

const aSlice = createSlice({
...
extraReducers: builder => {
    ...,
    builder.addCase(addToState.fulfilled, (state, action) => {
        state.data = {
            ...state.data,
            ...action.payload.data
        };
    });
    ...,
  }

});
Run Code Online (Sandbox Code Playgroud)

因此导致...state.data返回代理引用而不是值,这是提到的陷阱之一,Redux Toolkit 文档以及Immer.js 陷阱部分

我可以想出一些方法来解决这个问题,但是,我想知道它们是否是这方面的最佳实践,或者是否有任何优雅的方式来完成这项工作?

redux immer.js redux-toolkit

2
推荐指数
1
解决办法
678
查看次数