Advances in artificial intelligence (AI) and deep learning have raised concerns about its increasing energy consumption, while demand for deploying AI in mobile devices and machines at the edge is growing. Binary neural networks (BNNs) have recently gained attention as energy and memory efficient models suitable for resource constrained environments; however, training BNNs exactly is computationally challenging because of its discrete characteristics. Recent work proposing a framework for training BNNs based on quadratic unconstrained binary optimisation (QUBO) and progress in the design of Ising machines for solving QUBO problems suggest a potential path to efficiently optimising discrete neural networks. In this work, we extend existing QUBO models for training BNNs to accommodate arbitrary network topologies and propose two novel methods for regularisation. The first method maximises neuron margins biasing the training process toward parameter configurations that yield larger pre-activation magnitudes. The second method employs a dropout-inspired iterative scheme in which reduced subnetworks are trained and used to adjust linear penalties on network parameters. We apply the proposed QUBO formulation to a small binary image classification problem and conduct computational experiments on a GPU-based Ising machine. The numerical results indicate that the proposed regularisation terms modify training behaviour and yield improvements in classification accuracy on data not present in the training set.


翻译:人工智能(AI)与深度学习的进展引发了对其能耗日益增长的担忧,与此同时,在移动设备及边缘端机器上部署AI的需求正不断增长。二元神经网络(BNNs)因其能源与内存高效性,近期作为适用于资源受限环境的模型受到关注;然而,由于其离散特性,精确训练BNNs在计算上具有挑战性。近期研究提出了基于二次无约束二进制优化(QUBO)的训练BNNs框架,以及用于求解QUBO问题的伊辛机设计进展,为高效优化离散神经网络提供了一条潜在路径。在本工作中,我们扩展了现有用于训练BNNs的QUBO模型,以适配任意网络拓扑结构,并提出了两种新颖的正则化方法。第一种方法最大化神经元间隔,使训练过程偏向于产生更大预激活幅度的参数配置。第二种方法采用受dropout启发的迭代方案,其中训练缩减后的子网络并用于调整网络参数的线性惩罚项。我们将所提出的QUBO公式应用于一个二元图像分类小问题,并在基于GPU的伊辛机上进行了计算实验。数值结果表明,所提出的正则化项改变了训练行为,并在训练集未出现的数据上提高了分类准确率。

0
下载
关闭预览

相关内容

在数学,统计学和计算机科学中,尤其是在机器学习和逆问题中,正则化是添加信息以解决不适定问题或防止过度拟合的过程。 正则化适用于不适定的优化问题中的目标函数。
【2023新书】《二值神经网络:算法、架构和应用》
专知会员服务
66+阅读 · 2023年10月26日
能耗优化的神经网络轻量化方法研究进展
专知会员服务
27+阅读 · 2023年1月29日
专知会员服务
15+阅读 · 2021年7月24日
最新《图神经网络实用指南》2020论文,28页pdf
专知会员服务
222+阅读 · 2020年10月17日
【GNN】深度学习之上,图神经网络(GNN )崛起
产业智能官
16+阅读 · 2019年8月15日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
17+阅读 · 2018年9月20日
深度学习中的五大正则化方法和七大优化策略
全球人工智能
11+阅读 · 2017年12月25日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Arxiv
0+阅读 · 1月26日
VIP会员
相关基金
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员