更改

删除731字节 、 2024年9月5日 (星期四)
无编辑摘要
第26行: 第26行:  
这篇应该可以吧?
 
这篇应该可以吧?
   −
④为了增强分布外泛化能力,学者可以生成多样化的数据,模拟不同的测试环境,还可以通过域适应技术(Domain Adaptation),使模型可以适应不同的测试数据分布,还有不变性学习(Invariant Learning)、元学习(Meta Learning)等方法。——添加英文+参考文献 :已加英文
+
YMZ:可以
 
  −
YMZ:这些词当时是怎么找到的?可以去源头找一下参考文献
  −
 
  −
PLL:kimi助手,找了三篇相关的。
  −
 
  −
 
  −
⑤NIS概述调整为数学问题定义:直接改标题吗?
  −
 
  −
YMZ:是的,那个二级标题。
  −
 
  −
PLL:概述——>数学问题定义,已改。
        第46行: 第35行:  
PLL:以防后面在用我先放在最后面,最后一版再删。
 
PLL:以防后面在用我先放在最后面,最后一版再删。
   −
 
+
YMZ:这种的你可以建一个飞书文档,专门存这些草稿
⑦NIS因为在历史部分,就有介绍了,所以还是略掉一些比较好:略到什么程度?
  −
 
  −
YMZ:这个是不是还是说神经网络EI计算的部分要略掉。
  −
 
  −
PLL:可能是。
        第59行: 第43行:     
PLL:在NIS中,作者将问题转换成一个两阶段的泛函问题,先在给定的尺度下,最小化预测误差,之后,在通过简单迭代找到有效信息最大的宏观尺度。但是,两阶段的方法并不能真正地最大化有效信息,不能得到最好的粗粒化策略和因果涌现,故作者提出了NIS+。——这样呢?
 
PLL:在NIS中,作者将问题转换成一个两阶段的泛函问题,先在给定的尺度下,最小化预测误差,之后,在通过简单迭代找到有效信息最大的宏观尺度。但是,两阶段的方法并不能真正地最大化有效信息,不能得到最好的粗粒化策略和因果涌现,故作者提出了NIS+。——这样呢?
 +
 +
YMZ:我觉得
    
⑩图片配上文字说明:有些图片在讲述中讲解的,需要单独在讲一遍吗?就像论文里面配图下面的解释?
 
⑩图片配上文字说明:有些图片在讲述中讲解的,需要单独在讲一遍吗?就像论文里面配图下面的解释?
251

个编辑