看过本文的还看了

相关文献

该作者的其他文献

文献详情 >复杂约束条件下的无线资源优化:AI视角下的方法和洞察 收藏
复杂约束条件下的无线资源优化:AI视角下的方法和洞察

复杂约束条件下的无线资源优化:AI视角下的方法和洞察

作     者:李洋 徐凡 张纵辉 刘亚锋 LI Yang;XU Fan;CHANG Tsunghui;LIU Yafeng

作者机构:深圳市大数据研究院广东深圳518172 鹏城实验室广东深圳518071 香港中文大学(深圳)理工学院广东深圳518172 中国科学院数学与系统科学研究院计算数学与科学/工程计算研究所科学与工程计算国家重点实验室北京100190 

基  金:国家重点研发计划项目“学习优化理论与方法及其在5G网络中的应用”(2022YFA1003900) 国家自然科学基金项目“面向大规模无线资源管理的AI辅助优化方法研究”(62101349) “面向天基信息实时服务的星地一体化传输关键技术”(U23B2005) “数据与模型双驱动的大规模MIMO高速传输关键技术研究”(62071409) “混合整数规划的人工智能方法”(11991021) 鹏城实验室重大攻关任务“面向6G智能通信的数理基础与核心算法”(PCL2023AS1-2) 深圳市科技创新委员会优秀科技创新人才培养(杰出青年基础研究)“面向超大规模天线通信系统的分布式信号处理技术与基础理论”(RCJC20210609104448114) 广东省大数据计算基础理论与方法重点实验室 

出 版 物:《移动通信》 (Mobile Communications)

年 卷 期:2024年第48卷第7期

页      码:73-79页

摘      要:针对无线资源优化问题中普遍存在的复杂约束条件,详细梳理了各种基于AI的优化方法。尽管现有基于AI的优化方法在各种功率分配和波束赋形设计问题上取得了巨大成功,但大多数方法考虑的问题都仅仅配备较为简单的约束条件(例如功率预算约束条件),这些约束条件可以通过简单的投影操作得到满足。然而,对于更为复杂的约束条件,例如非凸的服务质量约束条件,其优化变量和无线信道通常是耦合的,如何有效处理非凸耦合的约束条件仍然是一个较大挑战。针对复杂约束条件下的无线资源优化问题,将现有基于AI的优化方法分为三类:监督学习方法、惩罚学习方法和拉格朗日对偶方法,并对这三类方法的适用性和不足作了细致的分析。最后,提出了一种基于增广拉格朗日法的惩罚-对偶学习框架,通过交替训练两个独立的神经网络,分别用以推断原问题的解和相应的拉格朗日乘子。此外,将所提出的惩罚-对偶学习框架应用于两个典型的无线资源优化问题上,并通过仿真实验表明,所提出的惩罚-对偶学习框架在约束违反和计算时间方面,分别优于当前最先进的AI和传统优化方法。

主 题 词:无线资源优化 学习优化 非凸优化 惩罚对偶 复杂约束 

学科分类:080904[080904] 0810[工学-土木类] 0809[工学-计算机类] 08[工学] 080402[080402] 0804[工学-材料学] 081001[081001] 

D O I:10.3969/j.issn.1006-1010.20240701-0001

馆 藏 号:203128733...

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分