宋乐

宋乐博士于2008年在澳大利亚悉尼大学和国家信息与通信技术实验室(NICTA)获得计算机博士学位,主攻机器学习中核方法的研究。随后他于2008—2011年间任职于卡耐基梅隆大学(CMU)计算机学院机器学习系博士后,主要从事核方法,图模型,时变网络,高效机器学习算法的研究和应用。2011在其完成博士后研究之后,他曾短期在Google研究院担任研究员,从事高效大规模在线分布学习方面的研究。他于2011起任职于乔治亚大学计算机学院,长期从事机器学习方面的研究,在非参数模型,核方法,网络和时空动态模型,优化和大规模算法方面取得重要研究成果。并且,他的机器学习方法研究成果还被成功的应用到许多跨学科问题上,包括社交网络,机器人科学和计算生物学的问题。他的研究成果曾获得多个美国国家和国际奖项,包括美国国家自然基金杰出青年研究奖,国际机器学习学会年度最佳论文奖,神经信息与处理学会年度最佳论文奖,和国际并行与分布计算学会年度最佳论文奖。http://www.cc.gatech.edu/~lsong/

演讲题目:非参数机器学习模型的大规模和分布式算法 (Large Scale and Distributed Training of Nonparametric Machine Learning Models)

摘要:现代机器学习的应用,例如图像分类,语音识别和新材料的发现,面临了不断增加的数据量,数据产生速度和数据的复杂与多样性。处理这些复杂的大数据通常需要非线性和非参数模型,例如核方法。但是非参数模型的大小通常会随着数据量的增大而增加,让这些模型的学习需要数据平方或立方那么多的计算量。如何让非参数模型的学习变得可行和有效呢?在这次演讲中,我将介绍最近的非参数模型大规模和分布式学习算法方面的一些最新发展。这些算法让非参数的核方法能够处理以前只有神经网络才可以处理的数据规模(千万以及更多的数据),并且在图像分类,语音识别和新材料发现等应用中取得与神经网络类似的精确度。这些算法还拥有一些神经网络不具备的优点,比如理论保证和更精简的模型。