新闻

新闻

您当前的位置: 新闻
“统计大讲堂”系列讲座第五十六讲
时间:2018-11-14

2018119日,我院举办的“统计大讲堂”第五十六讲在明德主楼1016举行。本次报告邀请了上海交通大学刘卫东教授分享了他的最新研究成果。我院尹建鑫副教授主持了此次报告会,许王莉教授、吕晓玲教授参加了本次报告会。

尹建鑫副教授首先介绍了报告人。刘卫东教授任职于上海交通大学自然科学研究院,2008年在浙江大学获博士学位;2008-2011年在香港科技大学和美国宾夕法尼亚大学沃顿商学院从事博士后研究;2018年获得国家杰出青年科学基金。刘卫东教授的研究领域为高维数据的统计推断,在统计学四大顶级期刊 AOS, JASA, JRSSB, Biometrika和概率论顶级期刊 AOP, PTRF等发表四十余篇论文。

刘卫东教授的报告题目是:Distributed stochastic gradient descent with diverging dimensions。传统统计研究主要关注统计方法的渐进性质,而刘卫东教授此项工作研究的则是统计方法,如极大似然估计等,该如何更有效地实现。刘卫东教授首先介绍了Newton法迭代,由此推广到SGDstochastic gradient descent)和mini-batch算法,介绍了这两种方法的计算复杂度。为降低计算复杂度,刘卫东教授将分布式计算思想融入SGD算法中,提出divide-conquer SGD算法。通过将样本划分到不同的计算机中分别估计参数,将参数估计值的均值作为最终参数的估计,在不改变估计精度的条件下给出了最优分布式计算机数的阶。

为避免分布式计算机数量的约束,更有效地利用计算资源,刘卫东教授从Newton法原始思想出发,提出了一阶Newton类估计量(First-order Newton-type Estimator),用矩阵逆的幂级数展开将求逆与迭代合并,无须求目标函数Hessian矩阵即可实现Newton法,进一步提高了计算效率。


报告结束后在场师生与刘卫东教授关于分布式SGD算法的思想、细节以及数据异质性等问题进行了热切讨论。