成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
激活函数
关注
44
在人工神经网络中,给定一个输入或一组输入,节点的激活函数定义该节点的输出。一个标准集成电路可以看作是一个由激活函数组成的数字网络,根据输入的不同,激活函数可以是开(1)或关(0)。这类似于神经网络中的线性感知器的行为。然而,只有非线性激活函数允许这样的网络只使用少量的节点来计算重要问题,并且这样的激活函数被称为非线性。
综合
百科
VIP
热门
动态
论文
精华
Scale redundancy and soft gauge fixing in positively homogeneous neural networks
Arxiv
0+阅读 · 2月16日
Evolving Multi-Channel Confidence-Aware Activation Functions for Missing Data with Channel Propagation
Arxiv
0+阅读 · 2月14日
A Unified Framework for Lifted Training and Inversion Approaches
Arxiv
0+阅读 · 2月6日
Optimal Abstractions for Verifying Properties of Kolmogorov-Arnold Networks (KANs)
Arxiv
0+阅读 · 2月6日
Why Rectified Power Unit Networks Fail and How to Improve It: An Effective Field Theory Perspective
Arxiv
0+阅读 · 2月8日
Superposed parameterised quantum circuits
Arxiv
0+阅读 · 2月16日
Large Deviations of Gaussian Neural Networks with ReLU activation
Arxiv
0+阅读 · 2月9日
Mining Generalizable Activation Functions
Arxiv
0+阅读 · 2月5日
Analysis of Fourier Neural Operators via Effective Field Theory
Arxiv
0+阅读 · 2月4日
Agnostic Learning of Arbitrary ReLU Activation under Gaussian Marginals
Arxiv
0+阅读 · 2月3日
The Function Representation of Artificial Neural Network
Arxiv
0+阅读 · 2月1日
Diagonal Linear Networks and the Lasso Regularization Path
Arxiv
0+阅读 · 1月28日
Exploring the Frontiers of Softmax: Provable Optimization, Applications in Diffusion Model, and Beyond
Arxiv
0+阅读 · 1月25日
Activation Function Design Sustains Plasticity in Continual Learning
Arxiv
0+阅读 · 1月27日
Fractal and Regular Geometry of Deep Neural Networks
Arxiv
0+阅读 · 1月28日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top