本周,首届自然语言处理实证方法 会议(EMNLP 2022) 将在阿拉伯联合酋长国阿布扎比举行。我们很荣幸成为EMNLP 2022 的钻石赞助商,谷歌研究人员在各个层面都做出了贡献。今年,我们将发表 50 多篇论文,并积极参与 10 场不同的研讨会和教程。
如果您已注册参加 EMNLP 2022,我们希望您能参观 Google 展位,详细了解各个主题的激动人心的工作,包括语言交互、因果推理、问答等。请参阅下文,详细了解 EMNLP 2022 上展示的 Google 研究(Google 关联方以粗体显示)。
委员会
组委会成员包括:Eunsol Choi、Imed Zitouni
高级项目委员会成员包括:Don Metzler、Eunsol Choi、Bernd Bohnet、Slav Petrov、Kenthon Lee
文件
将序列标记转换为 Seq2Seq 任务
Karthik Raman、Iftekhar Naim、Jiecao Chen、Kazuma Hashimoto、Kiran Yalasangi、Krishna Srinivasan
关于生成文本无参考评估的局限性
Daniel Deutsch、Rotem Dror、Dan Roth
基于块的最近邻机器翻译
Pedro Henrique Martins, Zita Marinho , André FT Martins
评估模型规模对语义解析中组合泛化的影响
Linlu Qiu*、Peter Shaw、Panupong Pasupat、Tianze Shi、Jonathan Herzig、Emily Pitler、Fei Sha、Kristina Toutanova
MasakhaNER 2.0:以非洲为中心的命名实体识别迁移学习
David Ifeoluwa Adelani、Graham Neubig、Sebastian Ruder、Shruti Rijhwani、Michael Beukman、Chester Palen-Michel、Constantine Lignos、Jesujoba O. Alabi、Shamsuddeen H. Muhammad、Peter Nabende、Cheikh M. Bamba Dione、Andiswa Bukula、Rooweither Mabuya、Bonaventure FP Dossou、Blessing Sibanda、Happy Buzaaba、Jonathan Mukiibi、Godson Kalipe、Derguene Mbaye、Amelia Taylor、Fatoumata Kabore、Chris Chininye Emezue、Anuoluwapo Aremu、Perez Ogayo、Catherine Gitau、Edwin Munkoh-Buabeng、Victoire M. Koagne、Allahsera Auguste Tapo、Tebogo Macucwa、Vukosi Marivate、Elvis Mboning、Tajuddeen Gwadabe、Tosin Adewumi、Orevaoghene Ahia、Joyce Nakatumba-Nabende、Neo L. Mokono、Ignatius Ezeani、Chiamaka Chukwuneke、Mofetoluwa Adeyemi、Gilles Q. Hacheme、Idris Abdulmumin、Odunayo Ogundepo、Oreen Yousuf、Tatiana Moteu Ngoli , 迪特里希·克拉科夫
T-STAR:使用 AMR 图作为中间表示的真实风格迁移
Anubhav Jangra、Preksha Nema、Aravindan Raghuveer
使用世界文学中的平行段落探索文档级文学机器翻译
Katherine Thai、Marzena Karpinska、Kalpesh Krishna、Bill Ray、Moira Inghilleri、John Wieting、Mohit Iyyer
ASQA:事实性问题与长篇答案的结合
Ivan Stelmakh*、Yi Luan、Bhuwan Dhingra、Ming-Wei Chang
使用矩阵分解对跨编码器模型进行有效的最近邻搜索
Nishant Yadav、Nicholas Monath、Rico Angell、Manzil Zaheer、Andrew McCallum
CPL:视觉和语言模型的反事实即时学习
Xuehai He, Diji Yang, Weixi Feng, Tsu-Jui Fu, Arjun Akula , Varun Jampani , Pradyumna Narayana , Sugato Basu , William Yang Wang, Xin Eric Wang
通过后期编辑和语言模型填充纠正抽象概括中的各种事实错误
Vidhisha Balachandran、Hannah Hajishirzi、William Cohen、Yulia Tsvetkov
龙与地下城作为人工智能的对话挑战
Chris Callison-Burch、Gaurav Singh Tomar、Lara J Martin、Daphne Ippolito、Suma Bailis、David Reitter
探索用于问答的双编码器架构
董哲、倪建默、Daniel M. Bikel、Enrique Alfonseca、王远、曲晨、Imed Zitouni
RED-ACE:使用置信度嵌入的 ASR 稳健错误检测
Zorik Gekhman、Dina Zverinski、Jonathan Mallinson、Genady Beryozkin
使用零样本问题生成改进段落检索
Devendra Sachan、Mike Lewis、Mandar Joshi、Armen Aghajanyan、Wen-tau Yih、Joelle Pineau、Luke Zettlemoyer
MuRAG:用于图像和文本开放式问答的多模态检索增强生成器
Wenhu Chen、Hexiang Hu、Xi Chen、Pat Verga、William Cohen
解码神经检索器的潜在空间以提出查询建议
Leonard Adolphs、Michelle Chen Huebscher、Christian Buck、Sertan Girgin、Olivier Bachem、Massimiliano Ciaramita、Thomas Hofmann
Hyper-X:用于多任务多语言传输的统一超网络
Ahmet Üstün、Arianna Bisazza、Gosse Bouma、Gertjan van Noord、Sebastian Ruder
提供不同的视角:模拟多党辩论中论据的信念一致性
Suzanna Sia、Kokil Jaidka、Hansin Ahuja、Niyati Chhaya、Kevin Duh
元学习快速权重语言模型
Kevin Clark、Kelvin Guu、Ming-Wei Chang、Panupong Pasupat、Geoffrey Hinton、Mohammad Norouzi
大型双编码器是可泛化检索器
Jenmo Ni , Chen Qu , Jing Lu , Zhuyun Dai , Gustavo Hernández Ábrego , Vincent Y. Zhao , Yi Luan , Keith B. Hall , Ming-Wei Chang , Yinfei Yang
CONQRR:通过强化学习进行检索的对话查询重写
Zeqiu Wu*、Yi Luan、Hannah Rashkin、David Reitter、Hannah Hajishirzi、Mari Ostendorf、Gaurav Singh Tomar
克服零样本跨语言生成中的灾难性遗忘
Tu Vu*、Aditya Barua、Brian Lester、Daniel Cer、Mohit Iyyer、Noah Constant
RankGen:使用大型排名模型改进文本生成
Kalpesh Krishna、Yapei Chang、John Wieting、Mohit Iyyer
UnifiedSKG:使用文本到文本语言模型的统一和多任务结构化知识基础
Tianbao Xie, Chen Henry Wu, Peng Shi, Ruiqizhong, Torsten Scholak, Michihiro Yasunaga, Chien-Sheng Wu, Mingzhong, Peng Cheng Yin , Sida I 。
M2D2:大规模多领域语言建模数据集
Machel Reid、Victor Zhong、Suchin Gururangan、Luke Zettlemoyer
Tomayto, Tomahto。超越标记级答案等价性进行问答评估
Jannis Bulian、Christian Buck、Wojciech Gajewski、Benjamin Boerschinger、Tal Schuster
COCOA:用于可控代码交换一代的编码器-解码器模型
Sneha Mondal、Ritika Goyal、Shreya Pathak、Preethi Jyothi、Aravindan Raghuveer
Crossmodal-3600:大规模多语言多模式评估数据集(参见博客文章)
Ashish V. Thapliyal、Jordi Pont-Tuset、Xi Chen、Radu Soricut
“你能找到这些捷径吗?” 用于评估文本分类输入显着性方法的忠实度的协议(参见博客文章)
Jasmijn Bastings、Sebastian Ebert、Polina Zablotskaia、Anders Sandholm、Katja Filippova
多语言模型压缩的有趣特性
Kelechi Ogueji*、Orevaoghene Ahia、Gbemileke A. Onilude、Sebastian Gehrmann、Sara Hooker、Julia Kreutzer
FETA:开放域对话中少样本任务转移的基准
Alon Albalak、Yi-Lin Tuan、Pegah Jandaghi、Connor Pryor、Luke Yoffe、Deepak Ramachandran、Lise Getoor、Jay Pujara、William Yang Wang
分享:分层辅助菜谱编辑系统
李姝阳、李宇飞、倪建默、朱利安·麦考利
上下文对于可访问性图像描述的重要性:无参考评估指标面临的挑战
Elisa Kreiss、Cynthia Bennett、Shayan Hooshmand、Eric Zelikman、Meredith Ringel Morris、Christopher Potts
只需两次微调:大型语言模型的选择性差异隐私
Weiyan Shi、Ryan Patrick Shea、Si Chen、Chiyuan Zhang、Ruoxi Jia、Zhou Yu
EMNLP 的发现
利用数据重铸来增强表格推理
Aashna Jena、Manish Shrivastava、Vivek Gupta、Julian Martin Eisenschlos
QUILL:使用检索增强和多阶段提炼的大型语言模型查询意图
Krishna Srinivasan、Karthik Raman、Anupam Samanta、Lingrui Liao、Luca Bertelli、Michael Bendersky
调整多语言模型以进行代码混合翻译
Aditya Vavre、Abhirut Gupta、Sunita Sarawagi
使用 TABT5 进行表到文本生成和预训练
Ewa Andrejczuk、Julian Martin Eisenschlos、Francesco Piccinno、Syrine Krichene、Yasemin Altun
将句子对 NLI 模型扩展到对长文档和集群进行推理
Tal Schuster、Sihao Chen、Senaka Buthpitiya、Alex Fabrikant、Donald Metzler
基于知识的对话状态跟踪
Dian Yu*、Mingqiu Wang、Yuan Cao、Izhak Shafran、Laurent El Shafey、Hagen Soltau
稀疏混合器:结合 MoE 和混合来构建更高效的 BERT
James Lee-Thorp、Joshua Ainslie
EdiT5:使用 T5 Warm-Start 进行半自回归文本编辑
Jonathan Mallinson、Jakub Adamek、Eric Malmi、Aliaksei Severyn
使用语言模型进行自回归结构化预测
Tianyu Liu、Yuchen Eleanor Jiang、Nicholas Monath、Ryan Cotterell 和 Mrinmaya Sachan
忠于文档还是忠于世界?通过抽象概括中的实体相关知识缓解幻觉
Yue Dong*、John Wieting、Pat Verga
研究用于文本分类器模型鲁棒性改进的集成方法
Jieyu Zhu*、Xuezhi Wang、Yaoqin、Jilin Chen、Kai-Wei Chang
通过层次感知主题短语生成扩展主题分类法
Dongha Lee、Jiaming Shen、Seonghyeon Lee、Susik Yoon、Hwanjo Yu、Jiawei Han
代码语法理解的基准语言模型
Da Shen, Xinyun Chen , Chenuang Wang, Koushik Sen, Dawn Song
大规模差异隐私 BERT
Rohan Anil、Badih Ghazi、Vineet Gupta、Ravi Kumar、Pasin Manurangsi
将语言模型中的知识追溯到训练数据
Ekin Akyurek、Tolga Bolukbasi、Frederick Liu、Binbin Xiong、Ian Tenney、Jacob Andreas、Kelvin Guu
根据短期语言影响预测长期引用
Sandeep Soni、David Bamman、Jacob Eisenstein
工作坊
扩大 NLP
组织者包括:Shaily Bhatt、Sunipa Dev、Isidora Tourni
第一个不断发展的 NLP (EvoNLP) 研讨会
组织者包括:Bhuwan Dhingra
受邀演讲者包括:Eunsol Choi、Jacob Einstein
大规模多语言 NLU 2022
特邀演讲者包括:Sebastian Ruder
第二届 NLP 积极影响研讨会
特邀演讲嘉宾包括:Milind Tambe
BlackboxNLP - 分析和解释 NLP 神经网络的研讨会
组织者包括:Jasmijn Bastings
MRL:第二届多语言表征学习研讨会
组织者包括:Orhan Firat、Sebastian Ruder
通过互动学习的新想法(NILLI)
项目委员会成员包括:Yu-Siang Wang
教程
深度多智能体系统中基于语言的紧急协调
Marco Baroni、Roberto Dessi、Angeliki Lazaridou
自然语言处理因果推理教程
Zhijing Jin、Amir Feder、Kun Zhang
针对 NLP 模型的模块化和参数高效微调
Sebastian Ruder、Jonas Pfeiffer、Ivan Vulic
评论