成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
激活函数
关注
44
在人工神经网络中,给定一个输入或一组输入,节点的激活函数定义该节点的输出。一个标准集成电路可以看作是一个由激活函数组成的数字网络,根据输入的不同,激活函数可以是开(1)或关(0)。这类似于神经网络中的线性感知器的行为。然而,只有非线性激活函数允许这样的网络只使用少量的节点来计算重要问题,并且这样的激活函数被称为非线性。
综合
百科
VIP
热门
动态
论文
精华
KANtize: Exploring Low-bit Quantization of Kolmogorov-Arnold Networks for Efficient Inference
Arxiv
0+阅读 · 3月18日
SUNLayer: Stable denoising with generative networks
Arxiv
0+阅读 · 2月20日
How Does Fourier Analysis Network Work? A Mechanism Analysis and a New Dual-Activation Layer Proposal
Arxiv
0+阅读 · 2月20日
Smoothness Adaptivity in Constant-Depth Neural Networks: Optimal Rates via Smooth Activations
Arxiv
0+阅读 · 2月23日
Smoothness Adaptivity in Constant-Depth Neural Networks: Optimal Rates via Smooth Activations
Arxiv
0+阅读 · 2月28日
Scale redundancy and soft gauge fixing in positively homogeneous neural networks
Arxiv
0+阅读 · 2月16日
Evolving Multi-Channel Confidence-Aware Activation Functions for Missing Data with Channel Propagation
Arxiv
0+阅读 · 2月14日
A Unified Framework for Lifted Training and Inversion Approaches
Arxiv
0+阅读 · 2月6日
Optimal Abstractions for Verifying Properties of Kolmogorov-Arnold Networks (KANs)
Arxiv
0+阅读 · 2月6日
Why Rectified Power Unit Networks Fail and How to Improve It: An Effective Field Theory Perspective
Arxiv
0+阅读 · 2月8日
Superposed parameterised quantum circuits
Arxiv
0+阅读 · 2月16日
Large Deviations of Gaussian Neural Networks with ReLU activation
Arxiv
0+阅读 · 2月9日
Mining Generalizable Activation Functions
Arxiv
0+阅读 · 2月5日
Analysis of Fourier Neural Operators via Effective Field Theory
Arxiv
0+阅读 · 2月4日
Agnostic Learning of Arbitrary ReLU Activation under Gaussian Marginals
Arxiv
0+阅读 · 2月3日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top