X

ACL 2022论文分享会Keynote嘉宾阵容重磅揭晓,5.21线上相见

随着人工智能的火热,AAAI、NeurIPS、CVPR 等顶级学术会议的影响力也愈来越大,每年接收论文、参会人数的数量连创新高。

ACL,作为国际最受关注的自然语言处理顶级会议,每年都吸引了大量华人学者投稿、参会,今年的 ACL 大会已是第 60 届,将于 5 月 22-5 月 27 举办。因为疫情原因,国内 NLP 从业者参与大会将受到很大的限制。

为了给国内 NLP 社区的从业人员搭建一个自由轻松的学术交流平台,机器之心组织了「ACL 2022 线上论文分享会」,定档 5 月 21 日云端相聚。

本次 ACL 论文分享设置了 Keynote、 论文分享、企业招聘等环节,就业内关注的 Transformer、大规模预训练模型等 NLP 热门主题邀请顶级专家、论文作者与观众做学术交流。

目前,Keynote 分享嘉宾与演讲主题正式公布:

秦兵 大模型背景下可信自然语言理解

分享摘要:当前,以 BERT、GPT 为代表的、数据驱动的大规模预训练自然语言理解模型已经在多个自然语言理解任务上面取得了令人印象深刻的性能,成为自然语言理解的新范式。然而,当前大模型给出的自然语言处理结果在可信程度上还比较薄弱,主要体现在三个方面:模型的稳定性差、可解释性弱、泛化能力不足。本次报告介绍我们如何在大模型背景下进行可信自然语言理解的问题。首先,针对大模型稳定性差的问题,介绍因果机制引导的稳定自然语言理解方法;其次,针对大模型可解释性弱的问题,介绍基于神经符号的可解释自然语言理解方法。最后,针对大模型泛化性不足的问题,介绍面向低资源的可泛化大模型训练架构。

分享人介绍:秦兵,哈尔滨工业大学长聘教授,博士生导师。科技部科技创新 2030-“新一代人工智能”重大项目管理专家组成员,中文信息学会理事、情感计算专委会主任、语言与知识计算专委会副主任。在人工智能及自然语言处理方面开展了许多研究,取得了一些有影响力的研究成果,入选 “福布斯中国 2020 科技女性榜” 和“爱思唯尔”高被引学者榜单。

李磊 大规模多语言翻译:挑战与机遇

分享摘要:可翻译很多语言的大一统翻译模型已经成为最新热点。大一统多语言翻译模型具有翻译性能和工程部署便利等好处。但要让一个模型在几十到上百种语言上都能翻译较好仍有很大挑战。本次报告我们将介绍大规模多语言翻译的几个核心挑战,包括大语种性能下降、参数冲突、数据高度不平衡等。我们也会概述解决这些挑战的方法,以及未来研究的机遇。

分享人介绍:李磊,加州大学圣巴巴拉分校计算机科学系助理教授。他在上海交通大学获得学士学位,在卡内基梅隆大学获得博士学位,研究兴趣包括自然语言处理、机器翻译和机器学习。李磊关于挖掘共同进化时间序列快速算法的论文曾获得 ACM KDD 最佳论文(亚军),关于新闻写作机器人 Xiaomingbot 的研究于 2017 年获得吴文俊人工智能二等奖。此外,他也是 2021 年 ACL 最佳论文奖、2019 年 CCF 青年精英奖和 2017 年 CCF 杰出演讲者等荣誉的获得者。

此前,李磊曾在加州大学伯克利分校 EECS 系担任博士后研究员、百度硅谷深度学习研究院 (Institute of Deep Learning) 首席研究员,并在字节跳动担任人工智能实验室 (AI Lab) 首任负责人。李磊启动了 ByteDance 的机器翻译系统 (VolcTrans) 和 Xiaomingbot 自动写作系统,他的许多算法已经部署在生产中(今日头条、抖音、 Tiktok、 Lark) ,为超过 10 亿用户服务。

邱锡鹏 迈向大规模高效自然语言处理

分享摘要:近期超大规模预训练模型将很多 NLP 任务的准确率提升到了前所未有的高度,但是大模型的主要缺点是在参数、训练、推理、部署方面都存在效率问题。在本报告中,我们主要关注于模型效率,并介绍如何通过模型设计、早退、标签学习、统一模型、黑箱优化等维度来提升模型效率。

分享人介绍:邱锡鹏,复旦大学计算机学院教授,国家优青获得者,于复旦大学获得理学学士和博士学位。主要从事自然语言处理、深度学习等方向的研究,发表 CCF A/B 类论文 70 余篇,获得 ACL 2017 杰出论文奖(CCF A 类)、CCL 2019 最佳论文奖,有 4 篇论文入选 PaperDigest 发布的 IJCAI/ACL/EMNLP 的最有影响力论文(各会议每年 10 篇)。出版开源专著《神经网络与深度学习》,Github 关注数 1.5 万,豆瓣评分 9.4 分。主持开发了开源框架 FudanNLP 和 FastNLP,已被国内外数百家单位使用。2015 年入选首届中国科协青年人才托举工程项目,2018 年获钱伟长中文信息处理科学技术奖青年创新奖一等奖,2021 年获首届上海市计算机学会教学成果奖一等奖(排名第一)等。培养学生曾获中国中文信息学会优博、中国人工智能学会优博、上海市计算机学会优博、微软学者、百度奖学金等。

张岳 人在闭环的自然语言处理

分享摘要:随着深度学习的发展,自然语言处理取得显著进步,在许多标准测试集上接近或超越了人类的水平。然而,深度学习模型也展现出鲁棒性和逻辑推理等方面的局限。近期研究显示,这些局限的重要原因是模型没有学到关键特征,而是依赖伪特征进行判断。为解决上述问题,本次报告介绍两个人工介入干预的办法,提升关键特征把握。实验证明,对于情感分类问题,关键特征可以让模型通过 50 个样本达到 3000 个样本的训练效果。对于机器翻译问题,人工干预不仅可以大幅提升性能,还给翻译产品提供了一个新的可能模式。

分享人介绍:张岳,西湖大学工学院文本智能实验室特聘研究员。2009 年博士获牛津大学计算机科学博士学位,而后在剑桥大学从事博士后研究,再后进入新加坡科技与设计大学任助理教授。2018 年 9 月全职加入西湖大学。主要研究领域为自然语言处理、文本挖掘、机器翻译,以及自然语言处理在金融、生物医药等领域的应用。

四位 Keynote 分享之外,全天日程还包括10篇论文分享、佳期投资线上招聘会等环节,详情请关注机器之心的后续报道。