Google en ACL 2023
Google ACL 2023
Publicado por Malaya Jules, Gerente de Programa, Google
Esta semana se está llevando a cabo en línea la 61ª reunión anual de la Asociación de Lingüística Computacional (ACL), una conferencia de primer nivel que abarca una amplia gama de áreas de investigación relacionadas con enfoques computacionales del lenguaje natural.
Como líder en procesamiento y comprensión del lenguaje natural, y como patrocinador de nivel Diamante de ACL 2023, Google presentará las últimas investigaciones en el campo con más de 50 publicaciones, y una participación activa en una variedad de talleres y tutoriales.
Si estás registrado/a en ACL 2023, esperamos que visites el stand de Google para obtener más información sobre los proyectos en Google que se dedican a resolver problemas interesantes para miles de millones de personas. También puedes obtener más información sobre la participación de Google a continuación (afiliaciones de Google en negrita).
- La Prueba de Alex Hormozi para Ideas de Negocio (Puedes usarla en ChatGPT)
- La Prueba de Alex Hormozi para Ideas de Negocio (Que Puedes Usar en ChatGPT)
- EE. UU. y la UE completan el tan esperado acuerdo sobre el intercambio de datos
Junta Directiva y Comité Organizador
Los presidentes de área incluyen: Dan Garrette. Los presidentes de talleres incluyen: Annie Louis. Los presidentes de publicaciones incluyen: Lei Shu. El Comité de Programa incluye: Vinodkumar Prabhakaran, Najoung Kim, Markus Freitag
Artículos destacados
NusaCrowd: Iniciativa de código abierto para recursos de PLN en indonesio Samuel Cahyawijaya, Holy Lovenia, Alham Fikri Aji, Genta Winata, Bryan Wilie, Fajri Koto, Rahmad Mahendra, Christian Wibisono, Ade Romadhony, Karissa Vincentio, Jennifer Santoso, David Moeljadi, Cahya Wirawan, Frederikus Hudi, Muhammad Satrio Wicaksono, Ivan Parmonangan, Ika Alfina, Ilham Firdausi Putra, Samsul Rahmadani, Yulianti Oenang, Ali Septiandri, James Jaya, Kaustubh Dhole, Arie Suryani, Rifki Afina Putri, Dan Su, Keith Stevens, Made Nindyatama Nityasya, Muhammad Adilazuarda, Ryan Hadiwijaya, Ryandito Diandaru, Tiezheng Yu, Vito Ghifari, Wenliang Dai, Yan Xu, Dyah Damapuspita, Haryo Wibowo, Cuk Tho, Ichwanul Karo Karo, Tirana Fatyanosa, Ziwei Ji, Graham Neubig, Timothy Baldwin, Sebastian Ruder, Pascale Fung, Herry Sujaini, Sakriani Sakti, Ayu Purwarianti
Optimización de representaciones de consulta en tiempo de prueba para recuperación densa Mujeen Sung, Jungsoo Park, Jaewoo Kang, Danqi Chen, Jinhyuk Lee
PropSegmEnt: un corpus a gran escala para segmentación a nivel de proposición y reconocimiento de implicación Sihao Chen*, Senaka Buthpitiya, Alex Fabrikant, Dan Roth, Tal Schuster
Destilando paso a paso. ¡Superando a modelos de lenguaje más grandes con menos datos de entrenamiento y tamaños de modelos más pequeños Cheng-Yu Hsieh*, Chun-Liang Li, Chih-Kuan Yeh, Hootan Nakhost, Yasuhisa Fujii, Alex Ratner, Ranjay Krishna, Chen-Yu Lee, Tomas Pfister
Modelos de lenguaje grandes con memoria de trabajo controlable Daliang Li, Ankit Singh Rawat, Manzil Zaheer, Xin Wang, Michal Lukasik, Andreas Veit, Felix Yu, Sanjiv Kumar
OpineSum: Autoentrenamiento basado en implicación para resumen de opinión abstracto Annie Louis, Joshua Maynez
RISE: aprovechando técnicas de recuperación para la evaluación de resúmenes David Uthus, Jianmo Ni
Sigue al líder (del tablero) con confianza: estimación de valores p a partir de un solo conjunto de pruebas con variabilidad de ítems y respuestas Shira Wein*, Christopher Homan, Lora Aroyo, Chris Welty
SamToNe: Mejorando la pérdida contrastiva para modelos de recuperación de codificadores duales con negativos en la misma torre Fedor Moiseev, Gustavo Hernandez Abrego, Peter Dornbach, Imed Zitouni, Enrique Alfonseca, Zhe Dong
Artículos
Buscando agujas en un pajar: Sobre el papel del bilingüismo incidental en la capacidad de traducción de PaLM Eleftheria Briakou, Colin Cherry, George Foster
Induciendo a PaLM para la traducción: Evaluando estrategias y rendimiento David Vilar, Markus Freitag, Colin Cherry, Jiaming Luo, Viresh Ratnakar, George Foster
Prompts de refinamiento de consultas para preguntas y respuestas de formato largo sin libro cerrado Reinald Kim Amplayo, Kellie Webster, Michael Collins, Dipanjan Das, Shashi Narayan
Adaptarse o anotar: Desafíos e intervenciones para la adaptación de dominio en preguntas y respuestas de dominio abierto Dheeru Dua*, Emma Strubell, Sameer Singh, Pat Verga
FRMT: Un punto de referencia para la traducción automática consciente de la región con pocos ejemplos (ver publicación en el blog) Parker Riley, Timothy Dozat, Jan A. Botha, Xavier Garcia, Dan Garrette, Jason Riesa, Orhan Firat, Noah Constant
Generación condicional con un modelo de preguntas y respuestas Shashi Narayan, Joshua Maynez, Reinald Kim Amplayo, Kuzman Ganchev, Annie Louis, Fantine Huot, Anders Sandholm, Dipanjan Das, Mirella Lapata
Resolución de correferencias a través de un sistema de transiciones Seq2Seq Bernd Bohnet, Chris Alberti, Michael Collins
Transferencia cruzada con subredes específicas del lenguaje para el análisis de dependencia con pocos recursos Rochelle Choenni, Dan Garrette, Ekaterina Shutova
DAMP: Analizador multilingüe doblemente alineado para diálogos orientados a tareas William Held*, Christopher Hidey, Fei Liu, Eric Zhu, Rahul Goel, Diyi Yang, Rushin Shah
RARR: Investigar y revisar lo que dicen los modelos de lenguaje, utilizando modelos de lenguaje Luyu Gao*, Zhuyun Dai, Panupong Pasupat, Anthony Chen*, Arun Tejasvi Chaganty, Yicheng Fan, Vincent Y. Zhao, Ni Lao, Hongrae Lee, Da-Cheng Juan, Kelvin Guu
Punto de referencia de las capacidades de los modelos de lenguaje grandes para la generación condicional Joshua Maynez, Priyanka Agrawal, Sebastian Gehrmann
Generalización multilingüe a través del ajuste fino de tareas múltiples Niklas Muennighoff, Thomas Wang, Lintang Sutawika, Adam Roberts, Stella Biderman, Teven Le Scao, M. Saiful Bari, Sheng Shen, Zheng Xin Yong, Hailey Schoelkopf, Xiangru Tang, Dragomir Radev, Alham Fikri Aji, Khalid Almubarak, Samuel Albanie, Zaid Alyafeai, Albert Webson, Edward Raff, Colin Raffel
DisentQA: Desentrañando el conocimiento paramétrico y contextual con preguntas y respuestas contrafactuales Ella Neeman, Roee Aharoni, Or Honovich, Leshem Choshen, Idan Szpektor, Omri Abend
Resolviendo Expresiones de Referencia Indirecta para la Selección de Entidades Mohammad Javad Hosseini, Filip Radlinski, Silvia Pareti, Annie Louis
SeeGULL: Un Banco de Pruebas de Estereotipos con Amplia Cobertura Geo-Cultural Basado en Modelos Generativos Akshita Jha*, Aida Mostafazadeh Davani, Chandan K Reddy, Shachi Dave, Vinodkumar Prabhakaran, Sunipa Dev
La Cola Mueve al Perro: Sesgos en la Construcción de Conjuntos de Datos de Evaluación de Sesgos Sociales Nikil Selvam, Sunipa Dev, Daniel Khashabi, Tushar Khot, Kai-Wei Chang
Los Modelos Conscientes de los Caracteres Mejoran la Representación de Texto Visual Rosanne Liu, Dan Garrette, Chitwan Saharia, William Chan, Adam Roberts, Sharan Narang, Irina Blok, RJ Mical, Mohammad Norouzi, Noah Constant
Selección de Datos de Inicio en Frío para un Mejor Ajuste Fino del Modelo de Lenguaje en Pocas Muestras: Un Enfoque de Propagación de Incertidumbre Basado en Indicaciones Yue Yu, Rongzhi Zhang, Ran Xu, Jieyu Zhang, Jiaming Shen, Chao Zhang
Cubriendo Terreno Incomún: Generación de Preguntas Centradas en las Brechas para la Evaluación de Respuestas Roni Rabin, Alexandre Djerbetian, Roee Engelberg, Lidan Hackmon, Gal Elidan, Reut Tsarfaty, Amir Globerson
FormNetV2: Aprendizaje Contrastivo de Grafos Multimodales para la Extracción de Información de Documentos de Formulario Chen-Yu Lee, Chun-Liang Li, Hao Zhang, Timothy Dozat, Vincent Perot, Guolong Su, Xiang Zhang, Kihyuk Sohn, Nikolay Glushinev, Renshen Wang, Joshua Ainslie, Shangbang Long, Siyang Qin, Yasuhisa Fujii, Nan Hua, Tomas Pfister
Evaluación de Texto Generado Robusta a Dialectos Jiao Sun*, Thibault Sellam, Elizabeth Clark, Tu Vu*, Timothy Dozat, Dan Garrette, Aditya Siddhant, Jacob Eisenstein, Sebastian Gehrmann
MISGENDERED: Límites de los Modelos de Lenguaje Grandes en la Comprensión de Pronombres Tamanna Hossain, Sunipa Dev, Sameer Singh
LAMBADA: Razonamiento Automatizado de Retroceso en Lenguaje Natural Mehran Kazemi, Najoung Kim, Deepti Bhatia, Xin Xu, Deepak Ramachandran
LAIT: Codificación Eficiente de Múltiples Segmentos en Transformadores con Interacción Ajustable por Capa Jeremiah Milbauer*, Annie Louis, Mohammad Javad Hosseini, Alex Fabrikant, Donald Metzler, Tal Schuster
Respuesta de Preguntas Visuales Modular a través de la Generación de Código (ver publicación en el blog) Sanjay Subramanian, Medhini Narasimhan, Kushal Khangaonkar, Kevin Yang, Arsha Nagrani, Cordelia Schmid, Andy Zeng, Trevor Darrell, Dan Klein
Hacia la Comprensión de las Indicaciones de Cadena de Pensamiento: Un Estudio Empírico de lo que Importa Boshi Wang, Sewon Min, Xiang Deng, Jiaming Shen, You Wu, Luke Zettlemoyer y Huan Sun
Mejor razonamiento sin disparador con adaptación automática del disparador Xingchen Wan*, Ruoxi Sun, Hanjun Dai, Sercan Ö. Arik, Tomas Pfister
Resumen factible consistente a través del aprendizaje por refuerzo con retroalimentación de inferencia textual Paul Roit, Johan Ferret, Lior Shani, Roee Aharoni, Geoffrey Cideron, Robert Dadashi, Matthieu Geist, Sertan Girgin, Léonard Hussenot, Orgad Keller, Nikola Momchev, Sabela Ramos, Piotr Stanczyk, Nino Vieillard, Olivier Bachem, Gal Elidan, Avinatan Hassidim, Olivier Pietquin, Idan Szpektor
Generación de código a partir de lenguaje natural en cuadernos interactivos de ciencia de datos Pengcheng Yin, Wen-Ding Li, Kefan Xiao, Abhishek Rao, Yeming Wen, Kensen Shi, Joshua Howland, Paige Bailey, Michele Catasta, Henryk Michalewski, Oleksandr Polozov, Charles Sutton
Enseñando a los modelos de lenguaje pequeños a razonar Lucie Charlotte Magister*, Jonathan Mallinson, Jakub Adamek, Eric Malmi, Aliaksei Severyn
Usar conocimiento del dominio para guiar la inducción de la estructura del diálogo a través de la lógica probabilística suave neural Connor Pryor*, Quan Yuan, Jeremiah Liu, Mehran Kazemi, Deepak Ramachandran, Tania Bedrax-Weiss, Lise Getoor
Una aguja en un pajar: un análisis de trabajadores de alta coincidencia en MTurk para resúmenes Lining Zhang, Simon Mille, Yufang Hou, Daniel Deutsch, Elizabeth Clark, Yixin Liu, Saad Mahamood, Sebastian Gehrmann, Miruna Clinciu, Khyathi Raghavi Chandu y João Sedoc
Artículos de seguimiento de la industria
Aprendizaje federado de modelos de lenguaje Gboard con privacidad diferencial Zheng Xu, Yanxiang Zhang, Galen Andrew, Christopher Choquette, Peter Kairouz, Brendan McMahan, Jesse Rosenstock, Yuanbo Zhang
KAFA: Repensando la comprensión de anuncios de imágenes con adaptación de características aumentadas con conocimiento de modelos de visión y lenguaje Zhiwei Jia*, Pradyumna Narayana, Arjun Akula, Garima Pruthi, Hao Su, Sugato Basu, Varun Jampani
Artículos de hallazgos de ACL
Resumen multilingüe con evaluación de consistencia factual Roee Aharoni, Shashi Narayan, Joshua Maynez, Jonathan Herzig, Elizabeth Clark, Mirella Lapata
Afinación eficiente de parámetros para un aprendizaje multilingüe continuo y robusto Kartikeya Badola, Shachi Dave, Partha Talukdar
FiDO: Fusión en decodificador optimizada para un rendimiento más fuerte e inferencia más rápida Michiel de Jong*, Yury Zemlyanskiy, Joshua Ainslie, Nicholas FitzGerald, Sumit Sanghai, Fei Sha, William Cohen
Un enfoque simple pero efectivo para encontrar sesgos en la generación de código Spyridon Mouselinos, Mateusz Malinowski, Henryk Michalewski
Tareas desafiantes de BIG-Bench y si Chain-of-Thought puede resolverlas Mirac Suzgun, Nathan Scales, Nathanael Scharli, Sebastian Gehrmann, Yi Tay, Hyung Won Chung, Aakanksha Chowdhery, Quoc Le, Ed Chi, Denny Zhou, Jason Wei
QueryForm: un marco de consulta de entidades de formulario sin entrenamiento Zifeng Wang*, Zizhao Zhang, Jacob Devlin, Chen-Yu Lee, Guolong Su, Hao Zhang, Jennifer Dy, Vincent Perot, Tomas Pfister
ReGen: clasificación de texto sin entrenamiento mediante generación de datos de entrenamiento con recuperación densa progresiva Yue Yu, Yuchen Zhuang, Rongzhi Zhang, Yu Meng, Jiaming Shen, Chao Zhang
Modelos de secuencia a secuencia multilingües para procesamiento del lenguaje hebreo Matan Eyal, Hila Noga, Roee Aharoni, Idan Szpektor, Reut Tsarfaty
Desencadenar razonamiento multi-salto para responder preguntas en modelos de lenguaje utilizando indicaciones suaves y caminatas aleatorias Kanishka Misra*, Cicero Nogueira dos Santos, Siamak Shakeri
Tutoriales
Razonamiento complejo en lenguaje natural Wenting Zhao, Mor Geva, Bill Yuchen Lin, Michihiro Yasunaga, Aman Madaan, Tao Yu
Generación de texto a partir de modelos de lenguaje Afra Amini, Ryan Cotterell, John Hewitt, Clara Meister, Tiago Pimentel
Workshops
Procesamiento del lenguaje natural simple y eficiente (SustaiNLP) Organizadores incluyen: Tal Schuster
Taller sobre abuso en línea y daños (WOAH) Organizadores incluyen: Aida Mostafazadeh Davani
Diálogo basado en documentos y respuesta a preguntas conversacionales (DialDoc) Organizadores incluyen: Roee Aharoni
NLP para IA conversacional Organizadores incluyen: Abhinav Rastogi
Computación y lenguaje escrito (CAWL) Organizadores incluyen: Kyle Gorman, Brian Roark, Richard Sproat
Morfología y fonología computacional (SIGMORPHON) Ponentes incluyen: Kyle Gorman
Taller sobre comprensión narrativa (WNU) Organizadores incluyen: Elizabeth Clark
* Trabajo realizado durante su tiempo en Google
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Cómo convertir imágenes en indicaciones con el modelo de IA Img2Prompt Una guía paso a paso
- Por qué tener tu propio modelo de LLM es crucial y está al alcance
- Despliega tu aplicación web de Streamlit en 5 minutos.
- DataHour Sistema de preguntas y respuestas LlamaIndex con datos privados y evaluación efectiva
- Gradient Boosting de la Teoría a la Práctica (Parte 1)
- Deblur AI de Google Afilado de tus imágenes
- GPT-4 Perdió esta Batalla 449 a 28