Boletín de Ética y Sociedad #5 Hugging Face va a Washington y otros divagaciones del verano de 2023
Boletín de Ética y Sociedad #5 Hugging Face en Washington y otras divagaciones del verano de 2023
Una de las cosas más importantes para saber sobre la “ética” en la IA es que tiene que ver con valores. La ética no te dice lo que es correcto o incorrecto, proporciona un vocabulario de valores: transparencia, seguridad, justicia, y marcos para priorizarlos. Este verano, pudimos llevar nuestra comprensión de los valores en la IA a legisladores en la UE, Reino Unido y Estados Unidos, para ayudar a dar forma al futuro de la regulación de la IA. Aquí es donde brilla la ética: ayudando a trazar un camino hacia adelante cuando aún no hay leyes establecidas.
En consonancia con los valores fundamentales de Hugging Face de apertura y responsabilidad, compartimos una colección de lo que hemos dicho y hecho aquí. Esto incluye el testimonio de nuestro CEO Clem ante el Congreso de los EE. UU. y las declaraciones en el Foro de Comprensión de la Inteligencia Artificial del Senado de EE. UU.; nuestro consejo sobre el Acta de IA de la UE; nuestros comentarios a la NTIA sobre la responsabilidad de la IA; y los comentarios de nuestra Científica Jefe de Ética, Meg, a la Caucus Demócrata. En muchas de estas discusiones, se plantearon preguntas sobre por qué la apertura en la IA puede ser beneficiosa, y compartimos una colección de nuestras respuestas a esta pregunta aquí.
En consonancia con nuestro valor fundamental de democratización, también hemos pasado mucho tiempo hablando públicamente y hemos tenido el privilegio de hablar con periodistas para ayudar a explicar lo que está sucediendo en el mundo de la IA en este momento. Esto incluye:
- Comentarios de Sasha sobre el uso de energía y las emisiones de carbono de la IA (The Atlantic, The Guardian, (twice), New Scientist, The Weather Network, The Wall Street Journal, (twice)), así como la redacción de parte de un artículo de opinión en The Wall Street Journal sobre el tema; reflexiones sobre el riesgo catastrófico de la IA (Bloomberg, The Times, Futurism, Sky News); detalles sobre el sesgo en la IA generativa (Bloomberg, NBC, Vox); abordar cómo los trabajadores marginados crean los datos para la IA (The Globe and Mail, The Atlantic); resaltar los efectos del sexismo en la IA (VICE); y proporcionar información en MIT Technology Review sobre la detección de texto en IA, las releases de modelos abiertos y la transparencia de IA.
- Comentarios de Nathan sobre el estado del arte en modelos de lenguaje y releases abiertos (WIRED, VentureBeat, Business Insider, Fortune).
- Comentarios de Meg sobre la IA y la desinformación (CNN, al Jazeera, The New York Times); la necesidad de un manejo justo del trabajo de los artistas en la IA (The Washington Post); avances en IA generativa y su relación con el bien común (The Washington Post, VentureBeat); cómo los periodistas pueden dar forma de manera más efectiva a la evolución de la IA a través de su reportaje (CJR (Columbia Journalism Review)); así como también explicar el concepto estadístico fundamental de la perplejidad en la IA (Ars Technica); y destacar patrones de sexismo (Fast Company).
- Comentarios de Irene sobre la comprensión del panorama regulatorio de la IA (MIT Technology Review, Barron’s).
- Comentarios de Yacine sobre el código abierto y la legislación de IA (VentureBeat, TIME), así como los problemas de derechos de autor (VentureBeat).
- Comentarios de Giada sobre los conceptos de la “singularidad” de la IA (Popular Mechanics) y la “sencillez” de la IA (RFI, Radio France); reflexiones sobre los peligros del romance artificial (Analytics India Magazine); y explicar la alineación de valores (The Hindu).
Algunas de nuestras charlas lanzadas este verano incluyen la presentación TED de Giada sobre si es posible la IA generativa “ética” (¡las traducciones automáticas al inglés son geniales!); las presentaciones de Yacine sobre Ética en Tecnología en el Centro Markkula de Ética Aplicada y Responsabilidad y Apertura en el Taller sobre Modelos de Fundación Responsables y Abiertos; el diálogo de Katie sobre IA generativa en la salud; y la presentación de Meg para la Semana de Datos de Londres sobre Cómo Construir un Mejor IA Abierta.
- 🧨 Acelerando la difusión estable de inferencia XL con JAX en TPU en la nube v5e
- acelerando más de 130,000 modelos de Hugging Face con ONNX Runtime
- Probablemente conozcas las GANs, pero ¿sabes cómo entrenarlas?
Por supuesto, también hemos progresado en nuestro trabajo regular (nuestro “trabajo de verdad”). El valor fundamental de la accesibilidad ha surgido en nuestro trabajo, ya que nos hemos centrado en cómo dar forma a la IA de una manera informada por la sociedad y los valores humanos, donde todos se sientan bienvenidos. Esto incluye un nuevo curso sobre audio de IA de Maria y otros; un recurso de Katie sobre modelos de lenguaje clínico de acceso abierto; un tutorial de Nazneen y otros sobre IA generativa responsable; nuestros trabajos en FAccT sobre El Gradiente de Liberación de IA Generativa (video) y La Articulación de Cartas Éticas, Herramientas Legales y Documentación Técnica en ML (video); así como talleres sobre Mapeando la Superficie de Riesgo de la IA Texto-Imagen con un enfoque participativo y multidisciplinario y Evaluando los Impactos de los Sistemas de IA Generativa en las Modalidades y la Sociedad (video).
También hemos avanzado en nuestras metas de equidad y justicia con pruebas de sesgos y daños, aplicadas recientemente al nuevo modelo multimodal de Hugging Face IDEFICS. Hemos trabajado en cómo operacionalizar la transparencia de manera responsable, incluyendo la actualización de nuestras Políticas de Contenido (liderado por Giada). Hemos mejorado nuestro apoyo a la diversidad de lenguaje en el Hub mediante el uso de aprendizaje automático para mejorar los metadatos (liderado por Daniel), y nuestro apoyo al rigor en IA mediante la adición de estadísticas descriptivas a los conjuntos de datos para fomentar una mejor comprensión de lo que la IA aprende y cómo puede ser evaluada (liderado por Polina).
A partir de nuestras experiencias en esta temporada pasada, ahora proporcionamos una colección de muchos de los recursos en Hugging Face que son particularmente útiles en el actual discurso sobre ética en IA, disponibles aquí: https://huggingface.co/society-ethics.
Finalmente, nos ha sorprendido y alegrado el reconocimiento público para varios de los miembros regulares de la sociedad y ética, incluyendo tanto a Irene como a Sasha siendo seleccionadas en Los 35 innovadores menores de 35 de MIT (¡Hugging Face forma una cuarta parte de los 35 AI menores de 35!); Meg siendo incluida en listas de influyentes innovadores de IA (WIRED, Fortune); y la selección de Meg y Clem en Los 100 menores de 100 en IA de TIME. También estamos muy tristes de decir adiós a nuestro colega Nathan, quien ha sido fundamental en nuestro trabajo de vincular ética con el aprendizaje por refuerzo para los sistemas de IA. Como regalo de despedida, ha proporcionado más detalles sobre los desafíos de operativizar la IA ética en RLHF.
¡Gracias por leer!
— Meg, en nombre de los Miembros regulares de Ética y Sociedad en Hugging Face
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Orquesta Pipelines de Aprendizaje Automático con AWS Step Functions
- Técnica de conjunto AdaBoost completamente explicada con ejemplo en Python
- Visualización de series temporales
- Notas sobre CLIP Conexión de texto e imágenes
- LangChain 101 Parte 2c. Ajuste fino de LLMs con PEFT, LORA y RL
- Análisis avanzado de datos con GPT-4 Guía para principiantes sobre gráficos y mapas
- ChatGPT es increíble pero sobrevalorado