Google 参加 EMNLP 2022

1725984065606.jpg

本周,首届自然语言处理实证方法 会议(EMNLP 2022) 将在阿拉伯联合酋长国阿布扎比举行。我们很荣幸成为EMNLP 2022 的钻石赞助商,谷歌研究人员在各个层面都做出了贡献。今年,我们将发表 50 多篇论文,并积极参与 10 场不同的研讨会和教程。

如果您已注册参加 EMNLP 2022,我们希望您能参观 Google 展位,详细了解各个主题的激动人心的工作,包括语言交互、因果推理、问答等。请参阅下文,详细了解 EMNLP 2022 上展示的 Google 研究(Google 关联方以粗体显示)。

委员会

组委会成员包括:Eunsol Choi、Imed Zitouni

高级项目委员会成员包括:Don Metzler、Eunsol Choi、Bernd Bohnet、Slav Petrov、Kenthon Lee

文件

将序列标记转换为 Seq2Seq 任务

Karthik Raman、Iftekhar Naim、Jiecao Chen、Kazuma Hashimoto、Kiran Yalasangi、Krishna Srinivasan

关于生成文本无参考评估的局限性

Daniel Deutsch、Rotem Dror、Dan Roth

基于块的最近邻机器翻译

Pedro Henrique Martins, Zita Marinho , André FT Martins

评估模型规模对语义解析中组合泛化的影响

Linlu Qiu*、Peter Shaw、Panupong Pasupat、Tianze Shi、Jonathan Herzig、Emily Pitler、Fei Sha、Kristina Toutanova

MasakhaNER 2.0:以非洲为中心的命名实体识别迁移学习

David Ifeoluwa Adelani、Graham Neubig、Sebastian Ruder、Shruti Rijhwani、Michael Beukman、Chester Palen-Michel、Constantine Lignos、Jesujoba O. Alabi、Shamsuddeen H. Muhammad、Peter Nabende、Cheikh M. Bamba Dione、Andiswa Bukula、Rooweither Mabuya、Bonaventure FP Dossou、Blessing Sibanda、Happy Buzaaba、Jonathan Mukiibi、Godson Kalipe、Derguene Mbaye、Amelia Taylor、Fatoumata Kabore、Chris Chininye Emezue、Anuoluwapo Aremu、Perez Ogayo、Catherine Gitau、Edwin Munkoh-Buabeng、Victoire M. Koagne、Allahsera Auguste Tapo、Tebogo Macucwa、Vukosi Marivate、Elvis Mboning、Tajuddeen Gwadabe、Tosin Adewumi、Orevaoghene Ahia、Joyce Nakatumba-Nabende、Neo L. Mokono、Ignatius Ezeani、Chiamaka Chukwuneke、Mofetoluwa Adeyemi、Gilles Q. Hacheme、Idris Abdulmumin、Odunayo Ogundepo、Oreen Yousuf、Tatiana Moteu Ngoli , 迪特里希·克拉科夫

T-STAR:使用 AMR 图作为中间表示的真实风格迁移

Anubhav Jangra、Preksha Nema、Aravindan Raghuveer

使用世界文学中的平行段落探索文档级文学机器翻译

Katherine Thai、Marzena Karpinska、Kalpesh Krishna、Bill Ray、Moira Inghilleri、John Wieting、Mohit Iyyer

ASQA:事实性问题与长篇答案的结合

Ivan Stelmakh*、Yi Luan、Bhuwan Dhingra、Ming-Wei Chang

使用矩阵分解对跨编码器模型进行有效的最近邻搜索

Nishant Yadav、Nicholas Monath、Rico Angell、Manzil Zaheer、Andrew McCallum

CPL:视觉和语言模型的反事实即时学习

Xuehai He, Diji Yang, Weixi Feng, Tsu-Jui Fu, Arjun Akula , Varun Jampani , Pradyumna Narayana , Sugato Basu , William Yang Wang, Xin Eric Wang

通过后期编辑和语言模型填充纠正抽象概括中的各种事实错误

Vidhisha Balachandran、Hannah Hajishirzi、William Cohen、Yulia Tsvetkov

龙与地下城作为人工智能的对话挑战

Chris Callison-Burch、Gaurav Singh Tomar、Lara J Martin、Daphne Ippolito、Suma Bailis、David Reitter

探索用于问答的双编码器架构

董哲、倪建默、Daniel M. Bikel、Enrique Alfonseca、王远、曲晨、Imed Zitouni

RED-ACE:使用置信度嵌入的 ASR 稳健错误检测

Zorik Gekhman、Dina Zverinski、Jonathan Mallinson、Genady Beryozkin

使用零样本问题生成改进段落检索

Devendra Sachan、Mike Lewis、Mandar Joshi、Armen Aghajanyan、Wen-tau Yih、Joelle Pineau、Luke Zettlemoyer

MuRAG:用于图像和文本开放式问答的多模态检索增强生成器

Wenhu Chen、Hexiang Hu、Xi Chen、Pat Verga、William Cohen

解码神经检索器的潜在空间以提出查询建议

Leonard Adolphs、Michelle Chen Huebscher、Christian Buck、Sertan Girgin、Olivier Bachem、Massimiliano Ciaramita、Thomas Hofmann

Hyper-X:用于多任务多语言传输的统一超网络

Ahmet Üstün、Arianna Bisazza、Gosse Bouma、Gertjan van Noord、Sebastian Ruder

提供不同的视角:模拟多党辩论中论据的信念一致性

Suzanna Sia、Kokil Jaidka、Hansin Ahuja、Niyati Chhaya、Kevin Duh

元学习快速权重语言模型

Kevin Clark、Kelvin Guu、Ming-Wei Chang、Panupong Pasupat、Geoffrey Hinton、Mohammad Norouzi

大型双编码器是可泛化检索器

Jenmo Ni , Chen Qu , Jing Lu , Zhuyun Dai , Gustavo Hernández Ábrego , Vincent Y. Zhao , Yi Luan , Keith B. Hall , Ming-Wei Chang , Yinfei Yang

CONQRR:通过强化学习进行检索的对话查询重写

Zeqiu Wu*、Yi Luan、Hannah Rashkin、David Reitter、Hannah Hajishirzi、Mari Ostendorf、Gaurav Singh Tomar

克服零样本跨语言生成中的灾难性遗忘

Tu Vu*、Aditya Barua、Brian Lester、Daniel Cer、Mohit Iyyer、Noah Constant

RankGen:使用大型排名模型改进文本生成

Kalpesh Krishna、Yapei Chang、John Wieting、Mohit Iyyer

UnifiedSKG:使用文本到文本语言模型的统一和多任务结构化知识基础

Tianbao Xie, Chen Henry Wu, Peng Shi, Ruiqizhong, Torsten Scholak, Michihiro Yasunaga, Chien-Sheng Wu, Mingzhong, Peng Cheng Yin , Sida I 。

M2D2:大规模多领域语言建模数据集

Machel Reid、Victor Zhong、Suchin Gururangan、Luke Zettlemoyer

Tomayto, Tomahto。超越标记级答案等价性进行问答评估

Jannis Bulian、Christian Buck、Wojciech Gajewski、Benjamin Boerschinger、Tal Schuster

COCOA:用于可控代码交换一代的编码器-解码器模型

Sneha Mondal、Ritika Goyal、Shreya Pathak、Preethi Jyothi、Aravindan Raghuveer

Crossmodal-3600:大规模多语言多模式评估数据集(参见博客文章)

Ashish V. Thapliyal、Jordi Pont-Tuset、Xi Chen、Radu Soricut

“你能找到这些捷径吗?” 用于评估文本分类输入显着性方法的忠实度的协议(参见博客文章)

Jasmijn Bastings、Sebastian Ebert、Polina Zablotskaia、Anders Sandholm、Katja Filippova

多语言模型压缩的有趣特性

Kelechi Ogueji*、Orevaoghene Ahia、Gbemileke A. Onilude、Sebastian Gehrmann、Sara Hooker、Julia Kreutzer

FETA:开放域对话中少样本任务转移的基准

Alon Albalak、Yi-Lin Tuan、Pegah Jandaghi、Connor Pryor、Luke Yoffe、Deepak Ramachandran、Lise Getoor、Jay Pujara、William Yang Wang

分享:分层辅助菜谱编辑系统

李姝阳、李宇飞、倪建默、朱利安·麦考利

上下文对于可访问性图像描述的重要性:无参考评估指标面临的挑战

Elisa Kreiss、Cynthia Bennett、Shayan Hooshmand、Eric Zelikman、Meredith Ringel Morris、Christopher Potts

只需两次微调:大型语言模型的选择性差异隐私

Weiyan Shi、Ryan Patrick Shea、Si Chen、Chiyuan Zhang、Ruoxi Jia、Zhou Yu

EMNLP 的发现

利用数据重铸来增强表格推理

Aashna Jena、Manish Shrivastava、Vivek Gupta、Julian Martin Eisenschlos

QUILL:使用检索增强和多阶段提炼的大型语言模型查询意图

Krishna Srinivasan、Karthik Raman、Anupam Samanta、Lingrui Liao、Luca Bertelli、Michael Bendersky

调整多语言模型以进行代码混合翻译

Aditya Vavre、Abhirut Gupta、Sunita Sarawagi

使用 TABT5 进行表到文本生成和预训练

Ewa Andrejczuk、Julian Martin Eisenschlos、Francesco Piccinno、Syrine Krichene、Yasemin Altun

将句子对 NLI 模型扩展到对长文档和集群进行推理

Tal Schuster、Sihao Chen、Senaka Buthpitiya、Alex Fabrikant、Donald Metzler

基于知识的对话状态跟踪

Dian Yu*、Mingqiu Wang、Yuan Cao、Izhak Shafran、Laurent El Shafey、Hagen Soltau

稀疏混合器:结合 MoE 和混合来构建更高效的 BERT

James Lee-Thorp、Joshua Ainslie

EdiT5:使用 T5 Warm-Start 进行半自回归文本编辑

Jonathan Mallinson、Jakub Adamek、Eric Malmi、Aliaksei Severyn

使用语言模型进行自回归结构化预测

Tianyu Liu、Yuchen Eleanor Jiang、Nicholas Monath、Ryan Cotterell 和 Mrinmaya Sachan

忠于文档还是忠于世界?通过抽象概括中的实体相关知识缓解幻觉

Yue Dong*、John Wieting、Pat Verga

研究用于文本分类器模型鲁棒性改进的集成方法

Jieyu Zhu*、Xuezhi Wang、Yaoqin、Jilin Chen、Kai-Wei Chang

通过层次感知主题短语生成扩展主题分类法

Dongha Lee、Jiaming Shen、Seonghyeon Lee、Susik Yoon、Hwanjo Yu、Jiawei Han

代码语法理解的基准语言模型

Da Shen, Xinyun Chen , Chenuang Wang, Koushik Sen, Dawn Song

大规模差异隐私 BERT

Rohan Anil、Badih Ghazi、Vineet Gupta、Ravi Kumar、Pasin Manurangsi

将语言模型中的知识追溯到训练数据

Ekin Akyurek、Tolga Bolukbasi、Frederick Liu、Binbin Xiong、Ian Tenney、Jacob Andreas、Kelvin Guu

根据短期语言影响预测长期引用

Sandeep Soni、David Bamman、Jacob Eisenstein

工作坊

扩大 NLP

组织者包括:Shaily Bhatt、Sunipa Dev、Isidora Tourni

第一个不断发展的 NLP (EvoNLP) 研讨会

组织者包括:Bhuwan Dhingra

受邀演讲者包括:Eunsol Choi、Jacob Einstein

大规模多语言 NLU 2022

特邀演讲者包括:Sebastian Ruder

第二届 NLP 积极影响研讨会

特邀演讲嘉宾包括:Milind Tambe

BlackboxNLP - 分析和解释 NLP 神经网络的研讨会

组织者包括:Jasmijn Bastings

MRL:第二届多语言表征学习研讨会

组织者包括:Orhan Firat、Sebastian Ruder

通过互动学习的新想法(NILLI)

项目委员会成员包括:Yu-Siang Wang

教程

深度多智能体系统中基于语言的紧急协调

Marco Baroni、Roberto Dessi、Angeliki Lazaridou

自然语言处理因果推理教程

Zhijing Jin、Amir Feder、Kun Zhang

针对 NLP 模型的模块化和参数高效微调

Sebastian Ruder、Jonas Pfeiffer、Ivan Vulic

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论