Google en ACL 2023

Google ACL 2023

Publicado por Malaya Jules, Gerente de Programa, Google

Esta semana se está llevando a cabo en línea la 61ª reunión anual de la Asociación de Lingüística Computacional (ACL), una conferencia de primer nivel que abarca una amplia gama de áreas de investigación relacionadas con enfoques computacionales del lenguaje natural.

Como líder en procesamiento y comprensión del lenguaje natural, y como patrocinador de nivel Diamante de ACL 2023, Google presentará las últimas investigaciones en el campo con más de 50 publicaciones, y una participación activa en una variedad de talleres y tutoriales.

Si estás registrado/a en ACL 2023, esperamos que visites el stand de Google para obtener más información sobre los proyectos en Google que se dedican a resolver problemas interesantes para miles de millones de personas. También puedes obtener más información sobre la participación de Google a continuación (afiliaciones de Google en negrita).

Junta Directiva y Comité Organizador

Los presidentes de área incluyen: Dan Garrette. Los presidentes de talleres incluyen: Annie Louis. Los presidentes de publicaciones incluyen: Lei Shu. El Comité de Programa incluye: Vinodkumar Prabhakaran, Najoung Kim, Markus Freitag

Artículos destacados

NusaCrowd: Iniciativa de código abierto para recursos de PLN en indonesio Samuel Cahyawijaya, Holy Lovenia, Alham Fikri Aji, Genta Winata, Bryan Wilie, Fajri Koto, Rahmad Mahendra, Christian Wibisono, Ade Romadhony, Karissa Vincentio, Jennifer Santoso, David Moeljadi, Cahya Wirawan, Frederikus Hudi, Muhammad Satrio Wicaksono, Ivan Parmonangan, Ika Alfina, Ilham Firdausi Putra, Samsul Rahmadani, Yulianti Oenang, Ali Septiandri, James Jaya, Kaustubh Dhole, Arie Suryani, Rifki Afina Putri, Dan Su, Keith Stevens, Made Nindyatama Nityasya, Muhammad Adilazuarda, Ryan Hadiwijaya, Ryandito Diandaru, Tiezheng Yu, Vito Ghifari, Wenliang Dai, Yan Xu, Dyah Damapuspita, Haryo Wibowo, Cuk Tho, Ichwanul Karo Karo, Tirana Fatyanosa, Ziwei Ji, Graham Neubig, Timothy Baldwin, Sebastian Ruder, Pascale Fung, Herry Sujaini, Sakriani Sakti, Ayu Purwarianti

Optimización de representaciones de consulta en tiempo de prueba para recuperación densa Mujeen Sung, Jungsoo Park, Jaewoo Kang, Danqi Chen, Jinhyuk Lee

PropSegmEnt: un corpus a gran escala para segmentación a nivel de proposición y reconocimiento de implicación Sihao Chen*, Senaka Buthpitiya, Alex Fabrikant, Dan Roth, Tal Schuster

Destilando paso a paso. ¡Superando a modelos de lenguaje más grandes con menos datos de entrenamiento y tamaños de modelos más pequeños Cheng-Yu Hsieh*, Chun-Liang Li, Chih-Kuan Yeh, Hootan Nakhost, Yasuhisa Fujii, Alex Ratner, Ranjay Krishna, Chen-Yu Lee, Tomas Pfister

Modelos de lenguaje grandes con memoria de trabajo controlable Daliang Li, Ankit Singh Rawat, Manzil Zaheer, Xin Wang, Michal Lukasik, Andreas Veit, Felix Yu, Sanjiv Kumar

OpineSum: Autoentrenamiento basado en implicación para resumen de opinión abstracto Annie Louis, Joshua Maynez

RISE: aprovechando técnicas de recuperación para la evaluación de resúmenes David Uthus, Jianmo Ni

Sigue al líder (del tablero) con confianza: estimación de valores p a partir de un solo conjunto de pruebas con variabilidad de ítems y respuestas Shira Wein*, Christopher Homan, Lora Aroyo, Chris Welty

SamToNe: Mejorando la pérdida contrastiva para modelos de recuperación de codificadores duales con negativos en la misma torre Fedor Moiseev, Gustavo Hernandez Abrego, Peter Dornbach, Imed Zitouni, Enrique Alfonseca, Zhe Dong

Artículos

Buscando agujas en un pajar: Sobre el papel del bilingüismo incidental en la capacidad de traducción de PaLM Eleftheria Briakou, Colin Cherry, George Foster

Induciendo a PaLM para la traducción: Evaluando estrategias y rendimiento David Vilar, Markus Freitag, Colin Cherry, Jiaming Luo, Viresh Ratnakar, George Foster

Prompts de refinamiento de consultas para preguntas y respuestas de formato largo sin libro cerrado Reinald Kim Amplayo, Kellie Webster, Michael Collins, Dipanjan Das, Shashi Narayan

Adaptarse o anotar: Desafíos e intervenciones para la adaptación de dominio en preguntas y respuestas de dominio abierto Dheeru Dua*, Emma Strubell, Sameer Singh, Pat Verga

FRMT: Un punto de referencia para la traducción automática consciente de la región con pocos ejemplos (ver publicación en el blog) Parker Riley, Timothy Dozat, Jan A. Botha, Xavier Garcia, Dan Garrette, Jason Riesa, Orhan Firat, Noah Constant

Generación condicional con un modelo de preguntas y respuestas Shashi Narayan, Joshua Maynez, Reinald Kim Amplayo, Kuzman Ganchev, Annie Louis, Fantine Huot, Anders Sandholm, Dipanjan Das, Mirella Lapata

Resolución de correferencias a través de un sistema de transiciones Seq2Seq Bernd Bohnet, Chris Alberti, Michael Collins

Transferencia cruzada con subredes específicas del lenguaje para el análisis de dependencia con pocos recursos Rochelle Choenni, Dan Garrette, Ekaterina Shutova

DAMP: Analizador multilingüe doblemente alineado para diálogos orientados a tareas William Held*, Christopher Hidey, Fei Liu, Eric Zhu, Rahul Goel, Diyi Yang, Rushin Shah

RARR: Investigar y revisar lo que dicen los modelos de lenguaje, utilizando modelos de lenguaje Luyu Gao*, Zhuyun Dai, Panupong Pasupat, Anthony Chen*, Arun Tejasvi Chaganty, Yicheng Fan, Vincent Y. Zhao, Ni Lao, Hongrae Lee, Da-Cheng Juan, Kelvin Guu

Punto de referencia de las capacidades de los modelos de lenguaje grandes para la generación condicional Joshua Maynez, Priyanka Agrawal, Sebastian Gehrmann

Generalización multilingüe a través del ajuste fino de tareas múltiples Niklas Muennighoff, Thomas Wang, Lintang Sutawika, Adam Roberts, Stella Biderman, Teven Le Scao, M. Saiful Bari, Sheng Shen, Zheng Xin Yong, Hailey Schoelkopf, Xiangru Tang, Dragomir Radev, Alham Fikri Aji, Khalid Almubarak, Samuel Albanie, Zaid Alyafeai, Albert Webson, Edward Raff, Colin Raffel

DisentQA: Desentrañando el conocimiento paramétrico y contextual con preguntas y respuestas contrafactuales Ella Neeman, Roee Aharoni, Or Honovich, Leshem Choshen, Idan Szpektor, Omri Abend

Resolviendo Expresiones de Referencia Indirecta para la Selección de Entidades Mohammad Javad Hosseini, Filip Radlinski, Silvia Pareti, Annie Louis

SeeGULL: Un Banco de Pruebas de Estereotipos con Amplia Cobertura Geo-Cultural Basado en Modelos Generativos Akshita Jha*, Aida Mostafazadeh Davani, Chandan K Reddy, Shachi Dave, Vinodkumar Prabhakaran, Sunipa Dev

La Cola Mueve al Perro: Sesgos en la Construcción de Conjuntos de Datos de Evaluación de Sesgos Sociales Nikil Selvam, Sunipa Dev, Daniel Khashabi, Tushar Khot, Kai-Wei Chang

Los Modelos Conscientes de los Caracteres Mejoran la Representación de Texto Visual Rosanne Liu, Dan Garrette, Chitwan Saharia, William Chan, Adam Roberts, Sharan Narang, Irina Blok, RJ Mical, Mohammad Norouzi, Noah Constant

Selección de Datos de Inicio en Frío para un Mejor Ajuste Fino del Modelo de Lenguaje en Pocas Muestras: Un Enfoque de Propagación de Incertidumbre Basado en Indicaciones Yue Yu, Rongzhi Zhang, Ran Xu, Jieyu Zhang, Jiaming Shen, Chao Zhang

Cubriendo Terreno Incomún: Generación de Preguntas Centradas en las Brechas para la Evaluación de Respuestas Roni Rabin, Alexandre Djerbetian, Roee Engelberg, Lidan Hackmon, Gal Elidan, Reut Tsarfaty, Amir Globerson

FormNetV2: Aprendizaje Contrastivo de Grafos Multimodales para la Extracción de Información de Documentos de Formulario Chen-Yu Lee, Chun-Liang Li, Hao Zhang, Timothy Dozat, Vincent Perot, Guolong Su, Xiang Zhang, Kihyuk Sohn, Nikolay Glushinev, Renshen Wang, Joshua Ainslie, Shangbang Long, Siyang Qin, Yasuhisa Fujii, Nan Hua, Tomas Pfister

Evaluación de Texto Generado Robusta a Dialectos Jiao Sun*, Thibault Sellam, Elizabeth Clark, Tu Vu*, Timothy Dozat, Dan Garrette, Aditya Siddhant, Jacob Eisenstein, Sebastian Gehrmann

MISGENDERED: Límites de los Modelos de Lenguaje Grandes en la Comprensión de Pronombres Tamanna Hossain, Sunipa Dev, Sameer Singh

LAMBADA: Razonamiento Automatizado de Retroceso en Lenguaje Natural Mehran Kazemi, Najoung Kim, Deepti Bhatia, Xin Xu, Deepak Ramachandran

LAIT: Codificación Eficiente de Múltiples Segmentos en Transformadores con Interacción Ajustable por Capa Jeremiah Milbauer*, Annie Louis, Mohammad Javad Hosseini, Alex Fabrikant, Donald Metzler, Tal Schuster

Respuesta de Preguntas Visuales Modular a través de la Generación de Código (ver publicación en el blog) Sanjay Subramanian, Medhini Narasimhan, Kushal Khangaonkar, Kevin Yang, Arsha Nagrani, Cordelia Schmid, Andy Zeng, Trevor Darrell, Dan Klein

Hacia la Comprensión de las Indicaciones de Cadena de Pensamiento: Un Estudio Empírico de lo que Importa Boshi Wang, Sewon Min, Xiang Deng, Jiaming Shen, You Wu, Luke Zettlemoyer y Huan Sun

Mejor razonamiento sin disparador con adaptación automática del disparador Xingchen Wan*, Ruoxi Sun, Hanjun Dai, Sercan Ö. Arik, Tomas Pfister

Resumen factible consistente a través del aprendizaje por refuerzo con retroalimentación de inferencia textual Paul Roit, Johan Ferret, Lior Shani, Roee Aharoni, Geoffrey Cideron, Robert Dadashi, Matthieu Geist, Sertan Girgin, Léonard Hussenot, Orgad Keller, Nikola Momchev, Sabela Ramos, Piotr Stanczyk, Nino Vieillard, Olivier Bachem, Gal Elidan, Avinatan Hassidim, Olivier Pietquin, Idan Szpektor

Generación de código a partir de lenguaje natural en cuadernos interactivos de ciencia de datos Pengcheng Yin, Wen-Ding Li, Kefan Xiao, Abhishek Rao, Yeming Wen, Kensen Shi, Joshua Howland, Paige Bailey, Michele Catasta, Henryk Michalewski, Oleksandr Polozov, Charles Sutton

Enseñando a los modelos de lenguaje pequeños a razonar Lucie Charlotte Magister*, Jonathan Mallinson, Jakub Adamek, Eric Malmi, Aliaksei Severyn

Usar conocimiento del dominio para guiar la inducción de la estructura del diálogo a través de la lógica probabilística suave neural Connor Pryor*, Quan Yuan, Jeremiah Liu, Mehran Kazemi, Deepak Ramachandran, Tania Bedrax-Weiss, Lise Getoor

Una aguja en un pajar: un análisis de trabajadores de alta coincidencia en MTurk para resúmenes Lining Zhang, Simon Mille, Yufang Hou, Daniel Deutsch, Elizabeth Clark, Yixin Liu, Saad Mahamood, Sebastian Gehrmann, Miruna Clinciu, Khyathi Raghavi Chandu y João Sedoc

Artículos de seguimiento de la industria

Aprendizaje federado de modelos de lenguaje Gboard con privacidad diferencial Zheng Xu, Yanxiang Zhang, Galen Andrew, Christopher Choquette, Peter Kairouz, Brendan McMahan, Jesse Rosenstock, Yuanbo Zhang

KAFA: Repensando la comprensión de anuncios de imágenes con adaptación de características aumentadas con conocimiento de modelos de visión y lenguaje Zhiwei Jia*, Pradyumna Narayana, Arjun Akula, Garima Pruthi, Hao Su, Sugato Basu, Varun Jampani

Artículos de hallazgos de ACL

Resumen multilingüe con evaluación de consistencia factual Roee Aharoni, Shashi Narayan, Joshua Maynez, Jonathan Herzig, Elizabeth Clark, Mirella Lapata

Afinación eficiente de parámetros para un aprendizaje multilingüe continuo y robusto Kartikeya Badola, Shachi Dave, Partha Talukdar

FiDO: Fusión en decodificador optimizada para un rendimiento más fuerte e inferencia más rápida Michiel de Jong*, Yury Zemlyanskiy, Joshua Ainslie, Nicholas FitzGerald, Sumit Sanghai, Fei Sha, William Cohen

Un enfoque simple pero efectivo para encontrar sesgos en la generación de código Spyridon Mouselinos, Mateusz Malinowski, Henryk Michalewski

Tareas desafiantes de BIG-Bench y si Chain-of-Thought puede resolverlas Mirac Suzgun, Nathan Scales, Nathanael Scharli, Sebastian Gehrmann, Yi Tay, Hyung Won Chung, Aakanksha Chowdhery, Quoc Le, Ed Chi, Denny Zhou, Jason Wei

QueryForm: un marco de consulta de entidades de formulario sin entrenamiento Zifeng Wang*, Zizhao Zhang, Jacob Devlin, Chen-Yu Lee, Guolong Su, Hao Zhang, Jennifer Dy, Vincent Perot, Tomas Pfister

ReGen: clasificación de texto sin entrenamiento mediante generación de datos de entrenamiento con recuperación densa progresiva Yue Yu, Yuchen Zhuang, Rongzhi Zhang, Yu Meng, Jiaming Shen, Chao Zhang

Modelos de secuencia a secuencia multilingües para procesamiento del lenguaje hebreo Matan Eyal, Hila Noga, Roee Aharoni, Idan Szpektor, Reut Tsarfaty

Desencadenar razonamiento multi-salto para responder preguntas en modelos de lenguaje utilizando indicaciones suaves y caminatas aleatorias Kanishka Misra*, Cicero Nogueira dos Santos, Siamak Shakeri

Tutoriales

Razonamiento complejo en lenguaje natural Wenting Zhao, Mor Geva, Bill Yuchen Lin, Michihiro Yasunaga, Aman Madaan, Tao Yu

Generación de texto a partir de modelos de lenguaje Afra Amini, Ryan Cotterell, John Hewitt, Clara Meister, Tiago Pimentel

Workshops

Procesamiento del lenguaje natural simple y eficiente (SustaiNLP) Organizadores incluyen: Tal Schuster

Taller sobre abuso en línea y daños (WOAH) Organizadores incluyen: Aida Mostafazadeh Davani

Diálogo basado en documentos y respuesta a preguntas conversacionales (DialDoc) Organizadores incluyen: Roee Aharoni

NLP para IA conversacional Organizadores incluyen: Abhinav Rastogi

Computación y lenguaje escrito (CAWL) Organizadores incluyen: Kyle Gorman, Brian Roark, Richard Sproat

Morfología y fonología computacional (SIGMORPHON) Ponentes incluyen: Kyle Gorman

Taller sobre comprensión narrativa (WNU) Organizadores incluyen: Elizabeth Clark


* Trabajo realizado durante su tiempo en Google

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Procyon Photonics La startup dirigida por estudiantes de secundaria que podría revolucionar la informática

Procyon cree que podría ser posible ejecutar las redes neuronales del modelo de lenguaje de ChatGPT en su hardware'.

Inteligencia Artificial

Revolucionando el análisis de documentos conozca DSG, el primer sistema entrenable de principio a fin para la extracción de estructuras jerárquicas

El Generador de Estructura de Documentos (DSG) es un sistema poderoso para analizar y generar documentos estructurado...

Inteligencia Artificial

La sinfonía creativa de la inteligencia artificial generativa en la composición musical

Introducción La IA generativa es inteligencia artificial que puede producir nuevos datos, como libros de texto, imáge...

Inteligencia Artificial

Google AI presenta Visually Rich Document Understanding (VRDU) un conjunto de datos para un mejor seguimiento del progreso de la tarea de comprensión de documentos

Cada vez se crean y almacenan más documentos por parte de las empresas en la era digital de hoy en día. Aunque estos ...

Inteligencia Artificial

El año en que la inteligencia artificial se comió internet

Llamemos al 2023 el año en que muchos aprendimos a comunicarnos, crear, engañar y colaborar con robots.