米兰·(milan)中国官方网站-ACL 2022奖项公布!达摩院、华为等机构获奖,陈丹琦、杨笛一亦榜上有名
导语:本年的 ACL 一共选出八篇卓异论文,四篇由中国机构或者海外知名华人学者得到,占了一半!

作者 | 刘冰一
编纂 | 陈彩娴近日,天然语言处置惩罚国际顶会 ACL 2022 宣布了本年的获奖事情,华人学者体现凸起:本年的 ACL 一共选出八篇卓异论文,此中,四篇由中国机构或者海外知名华人学者得到,占了一半!
获奖企业包括阿里达摩院、华为诺亚方舟试验室等,而获奖事情的华人作者有陈丹琦、杨笛1、金榕等知论理学者。
ACL 2022是CCF A类集会,人工智能范畴天然语言处置惩罚(Natural Language Processing,NLP)标的目的最权势巨子的国际集会之一。它由国际计较语言学协会构造,每一年筹备一次。第 60 届 ACL 年夜会,将在 2022 年 5 月 22 日至 27 日于爱尔兰都柏林召开。
本届年夜会主集会共吸收了 604 篇长论文及 97 篇短论文。
获奖事情及作者先容最好论文
本届最好论文(Best Paper)来自加州年夜学伯克利分校研究团队,该研究提出了一种增量句法暗示。

链接:https://aclanthology.org/2022.acl-long.220.pdf
论文择要:该研究提出了一种增量句法暗示,该暗示包括为句子中的每一个单词分配一个离散标签,此中标签是利用句子前缀的严酷增量处置惩罚来猜测的,而且句子标签序列彻底确定相识析树,这类暗示要领区分在尺度暗示。
该研究利用更强盛的预练习模子及分外监视,将不异的预练习编码器与深度双向处置惩罚相联合,联合所有因素,到达96.38 F1。这注解该研究可以引诱出具备竞争性精度的解析树。该研究还有对于体系进修到的暗示举行了阐发,他们研究了体系捕捉的可注释句法特性等属性,以和句法歧义的延迟解决机制。可是这些技能因为它们偏重在深切的双向神经处置惩罚而不克不及被借用到增量设置中。
Daniel Klein
1998年,Klein 于康奈尔年夜学拿到数学、计较机科学、语言学3个学士学位。同年他去了牛津年夜学,于语言学专业上获取本硕博学位。1999年博士卒业他再次进入斯坦福攻读计较机科学博士学位,落伍入伯克利人工智能试验室(BAIR)。
患上益在多年的语言学及计较机学科的学科配景,他于天然语言处置惩罚的研究上成就斐然。Klein 传授的研究包括无监视进修要领、句法解析、信息提取及呆板翻译。
Daniel Klein曾经得到ACM 的 Grace Murray Hopper 奖、斯隆研究奖学金、美国国度科学基金会CAREER奖及微软新西席奖学金。屡次于ACL、NAACL、EMNLP得到最好论文奖。
Dan造就了很多优异学生,如Aria Haghighi、John DeNero 及 Percy Liang。
卓异论文
Learning to Generalize to More: Continuous Semantic Augmentation for Neural Machine Translation

论文地址:https://arxiv.org/pdf/2204.06812v1.pdf
论文择要:监视神经呆板翻译(NMT)于进修天生以来自一组并行句子对于的源输入为前提的方针句子时,凡是不雅察到模子的泛化性受练习中利用的并行数据量的影响很年夜。是以,研究者提出了一种新的数据加强范式——持续语义加强(Continuous Semantic Augmentation, CsaNMT),为每一个练习实例增长了一个毗邻语义区域。
金榕

金榕现任阿里巴巴集团副总裁、达摩院副院长。他曾经是密歇根州立年夜学终身传授,曾经任NIPS、SIGIR等顶级国际学术集会的主席,得到过美国国度科学基金会NSF Career Award。2014年7月,42岁的金榕决议插手阿里巴巴,成为达摩院呆板智能试验室卖力人。终身传授、海归科学家、不是学霸、浪漫绝缘体等标签齐聚于金榕身上,他被同事称为“随及患上最不像科学家的科学家”。
Inducing Positive Perspectives with Text Reframing

论文地址:https://arxiv.org/pdf/2204.02952v1.pdf
论文择要:该研究引入了踊跃重构使命,于该使命中,该研究为作者天生更踊跃的不雅点,而且不容易与原始寄义孕育发生抵牾。该研究引入了一个年夜范围的基准,踊跃生理学框架(POSITIVE PSYCHOLOGY FRAMES),其具备 8349 个句子对于及 12755 个布局化解释,以按照六种理论念头的重构计谋来注释踊跃重构。
杨笛一
她曾经就读陕西省兴平市西郊高级中学,2009年,高考中以优秀的成就考入上海交通年夜学,于俞勇教员的传染下插手堆积各路竞赛年夜神的ACM班。本科时期发表4篇顶会论文,一作2篇,得到2012年googleAnita Borg 计较机学科女性奖学金、2013年上海交年夜致远卓异学生奖学金。
2013年,杨笛一从上海交年夜ACM班卒业,赴卡内基梅隆年夜学语言技能研究所攻读硕士、博士,28岁成为佐治亚理工学院的助理传授。后因杨笛一于NLP范畴的卓着成绩,入选2020年“福布斯30位30岁如下科学精英榜”(Forbes 30 Under 30 list in Science)。
AI科技评论曾经对于杨笛一举行过专访,有兴致读者点击链接可见全文。
Ditch the Gold Standard: Re-evaluating Conversational Question Answering

论文地址:https://arxiv.org/pdf/2112.08812v2.pdf
论文择要:于这项事情中,该研究对于 SOTA 对于话式 QA 体系举行了初次年夜范围人类评估,经由过程人类与模子对于话判定谜底准确性。研究发明人机对于话的漫衍与人-人对于话的漫衍有很年夜的差别。人类评估及黄金汗青(goldhistory)评估存于不合,该研究进一步改良主动评估,并提出了猜测汗青重写机制,以便及人类判定更好地联系关系。末了,该研究阐发了各类建模计谋的影响,并会商了构建更好的对于话式问答体系的将来标的目的。、
陈丹琦
2008年卒业在长沙市雅礼中学,同年8月赴埃和开罗到场第20届国际信息学奥林匹克竞赛得到金牌,以后免试登科进入清华年夜学,2012年卒业在清华年夜学计较机科学试验室(姚班),同年赴美留学。曾经经是Facebook人工智能拜候科学家,2018年依附博士论文《Neural Reading Comprehension and Beyond》得到斯坦福年夜学博士,师从Christopher Manning,丈夫是清华年夜学同班同窗,计较机科学家俞华程。
2019年担当普林斯顿年夜学计较机科学系助理传授。2021年入选Google人工智能2021研究学者规划。
本文一作高天宇师从陈丹琦,今朝是普林斯顿年夜学的二年级博士生,本科卒业在清华年夜学,曾经经得到清华本科特等奖学金。
Compression of Generative Pre-trained Language Models via Quantization

论文择要:本文彩用量化要领对于天生式 PLM(Pre-trained Language Models)举行压缩,提出了一种 token 级的对于比蒸馏要领来进修可区别的词嵌入,此外,研究还有提出了一种模块级的动态扩大来使量化器顺应差别的模块,于各类使命的经验成果注解,该研究提出的要领于天生 PLM 上较着优在 SOTA 压缩要领。于 GPT-2 及 BART 上别离实现了 14.4 倍及 13.4 倍的压缩率。
第一作者陶超常,中国香港年夜学(HKU)博士研究生,师从中国香港年夜学的黄毅及罗萍。研究兴致是高机能呆板进修(收集压缩及加快),并运用在视觉及语言使命,论文发表于ACL/ECCV/CIKM/AAAI等。
参考链接:
https://www.2022.aclweb.org/best-paper-awards
https://www2.eecs.berkeley.edu/Faculty/Homepages/klein.html
https://chaofantao.top/

雷峰网(公家号:雷峰网)
雷峰网版权文章,未经授权禁止转载。详情见转载须知。





