“讨论:NIS+”的版本间的差异

来自集智百科 - 复杂系统|人工智能|复杂科学|复杂网络|自组织
跳到导航 跳到搜索
第14行: 第14行:
  
 
PLL:师兄,这个引理在附录里面没有命名,要不您在起一个?
 
PLL:师兄,这个引理在附录里面没有命名,要不您在起一个?
 +
 +
YMZ:用这个名字吧,“编码器的信息瓶颈”
  
 
=机器学习算法=
 
=机器学习算法=

2024年8月15日 (四) 09:36的版本

NIS+ 数学推导

要分别有一段文字,介绍为什么我们需要变分下界和通用逼近定理这两个定理及其证明。

PLL:加入:(这样写可不可以?)

式1中,数学形式是一个泛函问题,无法直接进行优化,学者将通过计算变分下界解决泛函问题。同时,在NIS+框架中,学者使用了编码器将p维的输入数据进行粗粒化,得到q维的宏观数据,下面编码器的通用逼近定理将证明编码器的可以近似粗粒化函数。

YMZ:我稍微改了一下,OK了。

编码器的通用逼近定理

这里的引理要和之前格式一样哦。

PLL:师兄,这个引理在附录里面没有命名,要不您在起一个?

YMZ:用这个名字吧,“编码器的信息瓶颈”

机器学习算法

样本重加权

现在直接就讲怎么做的了,还是要在这之前介绍一下为什么需要样本重加权,提及它在因果机器学习或因果推断领域中的发展,尤其是把它和前面数学推导出来的w相联系。

PLL:已改,师兄看看我理解对不对?