The telecommunications industry is experiencing rapid growth in adopting deep learning for critical tasks such as traffic prediction, signal strength prediction, and quality of service optimisation. However, designing neural network architectures for these applications remains challenging and time-consuming, particularly when targeting compact models suitable for resource-constrained network environments. Therefore, there is a need for automating the model design process to create high-performing models efficiently. This paper introduces TabGNS (Tabular Gated Neuron Selection), a novel gradient-based Neural Architecture Search (NAS) method specifically tailored for tabular data in telecommunications networks. We evaluate TabGNS across multiple telecommunications and generic tabular datasets, demonstrating improvements in prediction performance while reducing the architecture size by 51-82% and reducing the search time by up to 36x compared to state-of-the-art tabular NAS methods. Integrating TabGNS into the model lifecycle management enables automated design of neural networks throughout the lifecycle, accelerating deployment of ML solutions in telecommunications networks.


翻译:电信行业正经历着深度学习在流量预测、信号强度预测和服务质量优化等关键任务中应用的快速增长。然而,为这些应用设计神经网络架构仍然具有挑战性且耗时,特别是在针对资源受限的网络环境设计紧凑模型时。因此,需要自动化模型设计过程以高效创建高性能模型。本文介绍了TabGNS(表格门控神经元选择),这是一种专门为电信网络中的表格数据定制的新型基于梯度的神经架构搜索方法。我们在多个电信和通用表格数据集上评估TabGNS,结果表明,与最先进的表格NAS方法相比,该方法在提升预测性能的同时,将架构大小减少了51-82%,并将搜索时间减少了高达36倍。将TabGNS集成到模型生命周期管理中,能够实现神经网络在整个生命周期内的自动化设计,从而加速机器学习解决方案在电信网络中的部署。

0
下载
关闭预览

相关内容

设计是对现有状的一种重新认识和打破重组的过程,设计让一切变得更美。
AI大模型技术在电力系统中的应用及发展趋势
专知会员服务
18+阅读 · 2025年6月23日
【博士论文】机器学习中新型神经元模型的研究
专知会员服务
25+阅读 · 2024年11月20日
专知会员服务
23+阅读 · 2020年9月8日
专知会员服务
74+阅读 · 2020年5月21日
一文看懂AutoEncoder模型演进图谱
AINLP
12+阅读 · 2019年6月17日
基于模型系统的系统设计
科技导报
10+阅读 · 2019年4月25日
Attention!注意力机制模型最新综述
专知
65+阅读 · 2019年4月8日
从Seq2seq到Attention模型到Self Attention(一)
量化投资与机器学习
76+阅读 · 2018年10月8日
用模型不确定性理解模型
论智
11+阅读 · 2018年9月5日
超全总结:神经网络加速之量化模型 | 附带代码
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月12日
VIP会员
相关资讯
一文看懂AutoEncoder模型演进图谱
AINLP
12+阅读 · 2019年6月17日
基于模型系统的系统设计
科技导报
10+阅读 · 2019年4月25日
Attention!注意力机制模型最新综述
专知
65+阅读 · 2019年4月8日
从Seq2seq到Attention模型到Self Attention(一)
量化投资与机器学习
76+阅读 · 2018年10月8日
用模型不确定性理解模型
论智
11+阅读 · 2018年9月5日
超全总结:神经网络加速之量化模型 | 附带代码
Top
微信扫码咨询专知VIP会员