成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
MNIST (数据集)
关注
1
MNIST 数据集来自美国国家标准与技术研究所, National Institute of Standards and Technology (NIST). 训练集 (training set) 由来自 250 个不同人手写的数字构成, 其中 50% 是高中学生, 50% 来自人口普查局 (the Census Bureau) 的工作人员. 测试集(test set) 也是同样比例的手写数字数据。
综合
百科
VIP
热门
动态
论文
精华
Batch-CAM: Introduction to better reasoning in convolutional deep learning models
Arxiv
0+阅读 · 2月13日
FC-KAN: Function Combinations in Kolmogorov-Arnold Networks
Arxiv
0+阅读 · 1月30日
Accurate Simulation Pipeline for Passive Single-Photon Imaging
Arxiv
0+阅读 · 1月19日
Effects of Introducing Synaptic Scaling on Spiking Neural Network Learning
Arxiv
0+阅读 · 1月16日
FBFL: A Field-Based Coordination Approach for Data Heterogeneity in Federated Learning
Arxiv
0+阅读 · 1月12日
Rotation-Robust Regression with Convolutional Model Trees
Arxiv
0+阅读 · 1月8日
Human-in-the-Loop Feature Selection Using Interpretable Kolmogorov-Arnold Network-based Double Deep Q-Network
Arxiv
0+阅读 · 1月8日
STEMNIST: Spiking Tactile Extended MNIST Neuromorphic Dataset
Arxiv
0+阅读 · 1月4日
Machine Unlearning using Forgetting Neural Networks
Arxiv
0+阅读 · 2025年12月29日
Machine Unlearning in the Era of Quantum Machine Learning: An Empirical Study
Arxiv
0+阅读 · 2025年12月22日
Machine Unlearning in the Era of Quantum Machine Learning: An Empirical Study
Arxiv
0+阅读 · 2025年12月23日
Initialization of a Polyharmonic Cascade, Launch and Testing
Arxiv
0+阅读 · 2025年12月22日
How I Met Your Bias: Investigating Bias Amplification in Diffusion Models
Arxiv
0+阅读 · 2025年12月23日
NetworkFF: Unified Layer Optimization in Forward-Only Neural Networks
Arxiv
0+阅读 · 2025年12月22日
NetworkFF: Unified Layer Optimization in Forward-Only Neural Networks
Arxiv
0+阅读 · 2025年12月19日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top