更改

大小无更改 、 2021年8月1日 (日) 12:23
第330行: 第330行:       −
=====[https://campus.swarma.org/mobile/course/2200 GCOMB:在上亿节点网络上学习带约束的组合优化算法法|Openlab内部读书会第十三期]======
+
=====[https://campus.swarma.org/mobile/course/2200 GCOMB:在上亿节点网络上学习带约束的组合优化算法法|Openlab内部读书会第十三期]=====
 
本文提出监督学习+强化学习两阶段的框架:监督学习部分利用GCN学习出节点的作为候选解的优劣,强化学习部分在比较好的节点中选出问题的解。
 
本文提出监督学习+强化学习两阶段的框架:监督学习部分利用GCN学习出节点的作为候选解的优劣,强化学习部分在比较好的节点中选出问题的解。
    
18年的S2V-DQN是第一篇尝试学习如何求解图上组合优化问题的工作,它以及后续的工作主要都集中于如何提升算法的逼近程度,而没有特别考虑在大图上的效率和扩展性,这次介绍的工作GCOMB主要关注这个问题。本文的能够扩展到上亿节点的核心是,计算密集型的步骤只在比较“好”的节点上进行计算。本文提出监督学习+强化学习两阶段的框架:监督学习部分利用GCN学习出节点的作为候选解的优劣,强化学习部分在比较好的节点中选出问题的解。在实际应用中,第一阶段筛除了图上的大部分“无用”节点,使得计算密集型的第二阶段所需考虑的备选节点大大减少,从而完成加速。
 
18年的S2V-DQN是第一篇尝试学习如何求解图上组合优化问题的工作,它以及后续的工作主要都集中于如何提升算法的逼近程度,而没有特别考虑在大图上的效率和扩展性,这次介绍的工作GCOMB主要关注这个问题。本文的能够扩展到上亿节点的核心是,计算密集型的步骤只在比较“好”的节点上进行计算。本文提出监督学习+强化学习两阶段的框架:监督学习部分利用GCN学习出节点的作为候选解的优劣,强化学习部分在比较好的节点中选出问题的解。在实际应用中,第一阶段筛除了图上的大部分“无用”节点,使得计算密集型的第二阶段所需考虑的备选节点大大减少,从而完成加速。
 +
 
====CSDN社区====
 
====CSDN社区====
 
=====[https://blog.csdn.net/Xurui_Luo/article/details/107371115?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522162779109416780274133497%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=162779109416780274133497&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~baidu_landing_v2~default-7-107371115.pc_search_result_control_group&utm_term=%E7%BB%84%E5%90%88%E4%BC%98%E5%8C%96&spm=1018.2226.3001.4187 连续优化、离散优化、组合优化、整数优化和凸优化]=====
 
=====[https://blog.csdn.net/Xurui_Luo/article/details/107371115?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522162779109416780274133497%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=162779109416780274133497&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~baidu_landing_v2~default-7-107371115.pc_search_result_control_group&utm_term=%E7%BB%84%E5%90%88%E4%BC%98%E5%8C%96&spm=1018.2226.3001.4187 连续优化、离散优化、组合优化、整数优化和凸优化]=====
1,068

个编辑