更改

跳到导航 跳到搜索
添加12,313字节 、 2021年6月9日 (三) 16:29
建立内容为“ =2017 summer retreat plan of Swarm Agent Club (July 18 - 23)= <big>说明:以下内容还在修订中,不是最终版本,请勿扩散。</big> * 时间…”的新页面

=2017 summer retreat plan of Swarm Agent Club (July 18 - 23)=

<big>说明:以下内容还在修订中,不是最终版本,请勿扩散。</big>

* 时间: 2017年7月18-23
* 地点:古水北镇
* 成员:暂定18人

=参与者=

==2017年研读营成员(修订中)==

'''理论物理组'''

*1.尤亦庄,哈佛大学物理系博士后,加州大学圣地亚哥分校物理系助理教授,集智科学家,主要研究领域是量子多体物理,关注集体行为导致的演生现象和临界现象。对信息论(特别是量子信息),复杂系统,人工智能等领域也很感兴趣。
*2.程嵩,中国科学院物理研究所在读博士,研究方向为凝聚态理论量子多体与强关联系统,具体来说是基于张量重整化群的强关联数值算法。张量重整化群是近年来一个新兴的且还在不断发展的方法,为了不断优化这个方法,我自己的兴趣面也不断地在纠缠,网络,几何,机器学习等等方面拓展。
*3.罗秀哲, 中国科学技术大学光学,计算机在读本科生,感兴趣的方向是量子计算(Quantum Computing)和量子物理基础 (Quantum Foundations), 具体来说包括但不限于量子算法, 量子纠错, 量子计算的物理实现。 业余正在给Julia语言造量子计算的轮子。曾参与或完成过一些等离子,绝热量子计算,非经典路径的工作。
*4.马磊,新墨西哥州大学理论物理在读博士,研究方向中微子震荡以及中微子在超新星中的作用,尤其是使用理论和计算工具讨论其中的共振现象与collective现象。

'''统计学习小组'''

*6.甄慧玲,应用数学博士,统计物理博士后,研究方向为网络的“学习”和“记忆”,以及以逆伊辛(inverse Ising)和压缩感知(compressed sensing)问题为主的统计推断问题。致力于探讨网络学习和记忆的本质。用时,也关注神经科学的相关问题,尤其关注spiking neural networks和immune system。
*7.李嫣然,香港理工大学在读博士生,研究方向为自然语言处理中的语义表达和语言生成,致力于利用深度学习、认知科学等相关领域的方法和成果探究人类语言习得和语言表达的奥秘。
*8.苑明理,北京彩彻区明公司软件工程师,集智核心成员,数学系毕业、程序员生涯,年龄渐长,但对许多事情仍然充满好奇和困惑。因维基对知识工程发生兴趣,想去探寻知识大厦搭建之道。通过一些长期的思考,认为知识表示的几何化有助于揭示概念创生过程的秘密。
*9.方弦,法国巴黎七大信息学博士生,组合数学方向,目前主要研究领域是组合地图。

'''计算神经小组'''

*10.唐乾元,南京大学物理系物理学在读博士,集智核心成员,「知乎盐 Club 2014」荣誉会员,曾出版知乎盐系列电子书《写在物理边上》《临界:智能的设计原则》和知乎一小时电子书《能量守恒》。主要研究方向为统计物理及其在生命科学问题中的应用,曾作为中国博士生代表参加在德国林岛举办的「诺贝尔奖获得者大会」。
*11.卢晗,德国弗莱堡大学(University of Freiburg)Bernstein 计算神经科学中心在读博士。主要研究方向是用大规模神经网络计算的方法研究网络动态和突触可塑性及神经网络结构变化,及其在发育、学习和疾病中的体现和应用。

'''计算社会学小组'''

*12.吴令飞,芝加哥大学社会学系(知识实验室)博士后,集智俱乐部核心成员、集智科学家。研究兴趣:团队合作(team science)与技术创新。
*13.王成军,南京大学新闻传播学院助理研究员、计算传播学实验中心成员,对复杂性科学和可计算方法(如机器学习)感兴趣,现在的研究主要集中于采用网络科学方法分析计算社会科学的研究问题,例如,采用重整化方法分析手机用户的注意力网络和移动网络。
*14.张涵,普林斯顿社会学系博士。
*15.施永仁,耶鲁大学网络中心博士后。
*16.殷裔安,西北大学工学院在读博士。
*17.史冬波,上海交通大学国际关系与事务学院助理教授。
*18.董磊,清华大学城市与规划学院博士

探营:

* 19.张江,北京师范大学系统科学学院副教授,集智俱乐部创始人、现任主席、集智科学家,研究兴趣包括:复杂系统、集体注意力流、流网络、异速生长律等(21,22)。
* 20.张潘,中国科学院理论物理研究所副研究员,集智科学家,研究方向为统计物理与复杂系统,具体来说是用统计物理中的一些理论如自旋玻璃理论,副本对称破缺理论研究应用数学,网络和计算机科学中的一些问题。张潘的研究兴趣广泛,涉及物理,统计,网络和机器学习的很多方面并且在不断地拓宽自己的研究领域。(21,22)

==新成员招募计划(暂定2人)==

在知乎上选择3个问题,通过1)在回答中指定“参与集智凯风研读营”字样, 并2)给俯卧撑发邮件(fuwocheng1024@gmail.com)的方式确认报名。由王成军,曾慧玲,俯卧撑共同决定最终参与研读营人选。

--------负责人 <big>俯卧撑</big>。

==访问学者计划 (修订中)==

访问学者参加一天的活动,参与提问和讨论。

* 1. [http://www.itp.ac.cn/~zhouhj/ 周海军], Chinese Academy of Sciences
* 2. [http://www.knowledgelab.org/people/detail/james_a_evans/ James Evans], Chicago University

------负责人 王成军

==讲员==
* 尤亦庄
* 李嫣然
* 甄慧玲
* 唐乾元(aka傅渥成)
* 王成军: team algebra
* 程嵩
* 罗秀哲
* 苑明理

要求:讲者提前提供所要讲的内容的slides。

TBA: 北京公司的研究人员参与、探访研读营计划,名单

=研读营日程安排=




{| class="wikitable"
|-
! 条目 !! 第一天 !! 第二天 !! 第三天 !! 第四天 !! 第五天
|-
| 主持人 || 尤亦庄 || 唐乾元 || 王成军 || 吴令飞 || 张江
|-
| 第一单元 || 9:00-10:30 Ice Breaking || 9:00-10:30 TBA 尤亦庄 || 9:00-10:30 统计学习(上)甄慧玲 || 9:00-9:45 Team Member Combination王成军 ||
* 9:00-9:10 张江
* 9:10- 9: 20 甘东宇
|-
| ||茶歇 ||茶歇 || 茶歇 || 9:45-11:30 TBA ||
* 9:20 - 9:50 James Evans
* 9:50-10:20 Florence
* 10:20-10:50 Hai-Jun Zhou
|-
| || || || || 茶歇|| 茶歇
|-
| 第二单元 ||10:45-12:00 分组 ||10:45-12:00 TBA尤亦庄 || 10:45-12:00 机器学习(强化学习)上李嫣然 || 11:45-12:30 张潘 ||
* 11:15-11:45 Xudong Cao
* 11:45-12:15 Xingyuan Yuan
|-
| ||午餐||午餐|| 午餐 || 午餐 ||午餐
|-
| 第三单元 || 14:00-15:00 tba 唐乾元 ||14:00-15:00 tba 程嵩 || 14:00-15:00 统计学习(下)甄慧玲 || 14:00 -14:45 甄慧玲 || 理论物理组 尤亦庄 程嵩 罗秀哲
|-
| 第四单元 || 15:00-16:00 tba 唐乾元 ||15:00-16:00 tba 罗秀哲 || 15:00-16:00 机器学习(强化学习)下 李嫣然 || 14:45 -15:30 唐乾元 || 统计学习组 张潘 曾慧玲
|-
| ||茶歇 ||茶歇 || 茶歇 || 15:45-16:30 李嫣然|| 机器学习组 李嫣然 苑明理
|-
| || || || || 茶歇|| 茶歇
|-
| 第五单元 ||16:15-17:15 tba 唐乾元 || 讨论 || 讨论 || 16:30-17:15 苑明理 || 16:30-17:15 生物数据组 唐乾元
|-
| || || || || || 17:15-18:00 计算社会科学组 王成军 吴令飞
|}





==详细内容安排==
===17号晚===

Cock tail party, warm up.

===第一天封闭营(18 周二)===

* 尤亦庄主持
*上午
* 9:00 ~ 10:30 Ice breaking, 自我介绍研究背景(5分钟加ppt自动播放)
* 讲完的人到白板上写自己感兴趣的研究问题,每人限3个,and/or 签上名字
* 茶歇
* 10:45 ~ 12:00
* 分组,确定每个人的topic,每个新人必须以单独或参与团队的方式与研读营旧成员合作。最后敲定的题目记录在白板上,保留到研读营结束B
* 午饭
* 2: 00 ~ 3: 00 唐乾元
* 3:00 ~ 4:00 唐乾元
* 茶歇
* 4:15 ~ 5:00 唐乾元



===第二天封闭营(19 周三)===
上午

9:00 ~ 10:30 尤亦庄

茶歇

10:45 ~ 12:00 尤亦庄


午饭

2: 00 ~ 3: 00 程嵩

3:00 ~ 4:00 罗秀哲

茶歇

4:15 ~ 5:00




===第三天封闭营(20 周四)===

上午

9:00 ~ 10:30 甄慧玲 统计学习(上)

茶歇

10:45 ~ 12:00 李嫣然 机器学习(强化学习)上

下午

2: 00 ~ 3: 30 甄慧玲 统计学习(下)

茶歇

3: 45 ~ 5:00 李嫣然 机器学习(强化学习)下


===第四天封闭营~showing muscles(21 周五)===

上午

尤亦庄 张潘 甄慧玲 李嫣然 苑明理 唐乾元 王成军


9:00 ~ 9:45 王成军 team member combination

9: 45 ~ 11:30 尤亦庄

茶歇

11:45 ~ 12:30 张潘

午饭

2:00 ~ 2:45 甄慧玲

2:45 ~ 3:30 唐乾元

茶歇

3:45 ~ 4:30 李嫣然

4:30 ~ 5:15 苑明理



===第五天公开讨论(22 周六)===

Keynote speaker

上午

9:00 ~ 9:10 张江 opening

9:10 ~ 9:20 甘东宇(凯风基金会秘书长) opening

9: 20 ~ 9:50 James

9:50 ~ 10:20 Federico Ricci-Tersenghi

10:20 ~ 10:50 周海军

茶歇

11:15 ~ 11:45 曹旭东

11:45 ~ 12:15 袁行远


午饭

2:00 ~ 5:00

各个组带新人报告

* 理论物理组 尤亦庄 程嵩 罗秀哲 …..
* 统计学习组 张潘 甄慧玲 …..
* 机器学习组 李嫣然 苑明理....
* 生物数据组 唐乾元 …..
* 计算社会科学组 王成军 吴令飞...


晚餐 fare

=链接=

[http://wiki.swarma.net/index.php?title=2016年集智俱乐部研读营 2016年集智俱乐部研读营]

[http://computational-communication.com/conference/index.html AI & Public Policy]

[http://computational-communication.com/conference/swarma.html FRONTIERS IN AI AND APPLICATIONS]

= 参考资料 =

==社科与物理两大阵营是否可以理解对方的工作?==

社科和物理两大阵营作为两个组,每个组提议五对文献,任意一对论文有一篇好的,一篇是相对差的。于是两组分别出了一套题目,仅仅给出标题和摘要。过程如下:首先,每个人选出自己认为正确的选项;然后,汇总并公示组内结果,每个人发表意见;最后,小组决议,投票决定。最终的结果如下图所示,社科组错了一个,物理组错了三个。这个结果略让人吃惊,因为一般人认为物理组比较难,社科的人难以判定其结果。结果却是对于那些发表出来的文章而言,物理组更搞不清楚社科的难度(“水”)有多深。当然,第二种解读就是,社会科学太软、太水,需要太多的口耳相传的训练,仅仅习得表面的功夫就只能做表面文章。

[[File:Group-social-papers.pdf|缩略图]]
[[File:Group-physics-papers.pdf|缩略图]]

== TensorFlow demo ==
import numpy as np
import tensorflow as tf

x = tf.placeholder(dtype=tf.float64, name='x')
y = tf.placeholder(dtype=tf.float64, name='y')

w = tf.Variable(0., dtype=tf.float64, name='w')
b = tf.Variable(0., dtype=tf.float64, name='b')
tf.summary.scalar('w', w);
tf.summary.scalar('b', b);

with tf.name_scope('y1'):
y1 = w*x + b

with tf.name_scope('loss'):
loss = tf.reduce_mean(tf.square(y - y1))
tf.summary.scalar('loss',loss);

optimizer = tf.train.GradientDescentOptimizer(0.5)
step = tf.Variable(0, name='step', trainable=False)
train = optimizer.minimize(loss, global_step=step)
initialize = tf.global_variables_initializer()

summary = [tf.summary.merge_all(), step]
writer = tf.summary.FileWriter('./log/test')

x_dat = np.random.rand(100)
y_dat = 3.*x_dat + 2. + 0.1*np.random.rand(100)
feed_dict = {x:x_dat, y:y_dat}

sess = tf.Session()
writer.add_graph(sess.graph)
sess.run(initialize)

for step in range(201):
sess.run(train, feed_dict)
if step%20 == 0:
print(step, *sess.run([w,b,loss], feed_dict))
writer.add_summary(*sess.run(summary, feed_dict))

导航菜单