Cómo nuestros principios ayudaron a definir el lanzamiento de AlphaFold

Nuestros principios en el lanzamiento de AlphaFold

Reflexiones y lecciones sobre compartir uno de nuestros mayores avances con el mundo

Poner en práctica nuestra misión de resolver la inteligencia para avanzar en la ciencia y beneficiar a la humanidad conlleva responsabilidades cruciales. Para ayudar a crear un impacto positivo en la sociedad, debemos evaluar proactivamente las implicaciones éticas de nuestra investigación y sus aplicaciones de manera rigurosa y cuidadosa. También sabemos que toda nueva tecnología tiene el potencial de causar daño, y tomamos en serio los riesgos a largo y corto plazo. Hemos construido nuestros cimientos basándonos en la responsabilidad desde el principio, especialmente enfocados en la gobernanza responsable, la investigación y el impacto responsable.

Esto comienza estableciendo principios claros que ayuden a realizar los beneficios de la inteligencia artificial (IA), al tiempo que se mitigan sus riesgos y posibles resultados negativos. Pionerar de manera responsable es un esfuerzo colectivo, por eso hemos contribuido a muchos estándares de la comunidad de IA, como los desarrollados por Google, la Partnership on AI y la OCDE (Organización para la Cooperación y el Desarrollo Económicos).

Nuestros Principios de Operación han llegado a definir tanto nuestro compromiso de priorizar el beneficio generalizado, como las áreas de investigación y aplicaciones que nos negamos a seguir. Estos principios han estado en el centro de nuestras decisiones desde que se fundó DeepMind, y continúan siendo refinados a medida que el panorama de la IA cambia y crece. Están diseñados para nuestro papel como una empresa científica impulsada por la investigación y son consistentes con los Principios de IA de Google.

De principios a práctica

Los principios escritos son solo una parte del rompecabezas: cómo se ponen en práctica es clave. Para la investigación compleja que se realiza en los límites de la IA, esto plantea desafíos significativos: ¿Cómo pueden los investigadores predecir los posibles beneficios y daños que pueden ocurrir en el futuro lejano? ¿Cómo podemos desarrollar una mejor previsión ética desde una amplia gama de perspectivas? ¿Y qué se necesita para explorar preguntas difíciles junto con el progreso científico en tiempo real para prevenir consecuencias negativas?

Hemos pasado muchos años desarrollando nuestras propias habilidades y procesos para la gobernanza, la investigación y el impacto responsables en DeepMind, desde la creación de herramientas internas y la publicación de documentos sobre cuestiones sociotécnicas hasta el apoyo a los esfuerzos para aumentar la deliberación y la previsión en el campo de la IA. Para ayudar a capacitar a los equipos de DeepMind para pionerar de manera responsable y protegerse contra el daño, nuestro Comité de Revisión Institucional (IRC) interdisciplinario se reúne cada dos semanas para evaluar cuidadosamente los proyectos, documentos y colaboraciones de DeepMind.

Pionerar de manera responsable es un músculo colectivo, y cada proyecto es una oportunidad para fortalecer nuestras habilidades y comprensión conjuntas. Hemos diseñado cuidadosamente nuestro proceso de revisión para incluir expertos rotativos de una amplia gama de disciplinas, con investigadores de aprendizaje automático, éticos y expertos en seguridad junto a ingenieros, expertos en seguridad, profesionales de políticas y más. Estas voces diversas identifican regularmente formas de ampliar los beneficios de nuestras tecnologías, sugieren áreas de investigación y aplicaciones para cambiar o ralentizar, y resaltan proyectos donde se necesita una mayor consulta externa.

Aunque hemos progresado mucho, muchos aspectos de esto se encuentran en territorio inexplorado. No acertaremos siempre y estamos comprometidos con el aprendizaje y la iteración continua. Esperamos que compartir nuestro proceso actual sea útil para otros que trabajen en IA responsable, y alentamos los comentarios mientras seguimos aprendiendo, por eso hemos detallado reflexiones y lecciones de uno de nuestros proyectos más complejos y gratificantes: AlphaFold. Nuestro sistema de IA AlphaFold resolvió el desafío de predicción de la estructura de proteínas de 50 años, y nos ha emocionado ver a los científicos utilizando la misma para acelerar el progreso en campos como la sostenibilidad, la seguridad alimentaria, el descubrimiento de medicamentos y la biología humana fundamental desde que la lanzamos a la comunidad en general el año pasado.

Centrándose en la predicción de la estructura de proteínas

Nuestro equipo de investigadores de aprendizaje automático, biólogos e ingenieros siempre ha visto el problema del plegado de proteínas como una oportunidad notable y única para que los sistemas de aprendizaje automático de IA creen un impacto significativo. En esta área, hay medidas estándar de éxito o fracaso, y un límite claro de lo que el sistema de IA necesita hacer para ayudar a los científicos en su trabajo: predecir la estructura tridimensional de una proteína. Y, al igual que con muchos sistemas biológicos, el plegado de proteínas es demasiado complejo como para que alguien pueda escribir las reglas de cómo funciona. Pero un sistema de IA podría ser capaz de aprender esas reglas por sí mismo.

Otro factor importante fue la evaluación bienal, conocida como CASP (la Evaluación Crítica de la Predicción de la Estructura de Proteínas), que fue fundada por el profesor John Moult y el profesor Krzysztof Fidelis. Con cada reunión, CASP proporciona una evaluación excepcionalmente sólida del progreso, requiriendo a los participantes que predigan estructuras que solo han sido descubiertas recientemente a través de experimentos. Los resultados son un gran catalizador para la investigación ambiciosa y la excelencia científica.

Comprender oportunidades y riesgos prácticos

Mientras nos preparábamos para la evaluación CASP en 2020, nos dimos cuenta de que AlphaFold mostraba un gran potencial para resolver el desafío en cuestión. Pasamos mucho tiempo y esfuerzo analizando las implicaciones prácticas, cuestionándonos: ¿Cómo podría AlphaFold acelerar la investigación y las aplicaciones biológicas? ¿Cuáles podrían ser las consecuencias no deseadas? ¿Y cómo podríamos compartir nuestro progreso de manera responsable?

Esto presentó una amplia gama de oportunidades y riesgos a considerar, muchos de los cuales estaban en áreas donde no necesariamente teníamos una fuerte experiencia. Por lo tanto, buscamos aportes externos de más de 30 líderes del campo en investigación biológica, bioseguridad, bioética, derechos humanos y más, con un enfoque en la diversidad de experiencia y antecedentes.

A lo largo de estas discusiones surgieron muchos temas consistentes:

  1. Equilibrar el beneficio generalizado con el riesgo de daño. Comenzamos con una mentalidad cautelosa sobre el riesgo de daño accidental o deliberado, incluida la forma en que AlphaFold podría interactuar tanto con avances futuros como con tecnologías existentes. A través de nuestras discusiones con expertos externos, quedó claro que AlphaFold no facilitaría significativamente causar daño con proteínas, dadas las muchas barreras prácticas para esto, pero que los avances futuros deberían evaluarse cuidadosamente. Muchos expertos argumentaron firmemente que AlphaFold, como un avance relevante para muchas áreas de investigación científica, tendría el mayor beneficio a través del acceso gratuito y generalizado.
  2. Las medidas de confianza precisas son esenciales para un uso responsable. Los biólogos experimentales explicaron lo importante que sería comprender y compartir métricas de confianza bien calibradas y utilizables para cada parte de las predicciones de AlphaFold. Al señalar qué predicciones de AlphaFold es probable que sean precisas, los usuarios pueden estimar cuándo pueden confiar en una predicción y usarla en su trabajo, y cuándo deben utilizar enfoques alternativos en su investigación. Inicialmente consideramos omitir predicciones para las cuales AlphaFold tenía baja confianza o alta incertidumbre predictiva, pero los expertos externos que consultamos demostraron por qué era especialmente importante mantener estas predicciones en nuestro lanzamiento, y nos aconsejaron sobre las formas más útiles y transparentes de presentar esta información.
  3. El beneficio equitativo podría significar apoyo adicional para campos desfavorecidos. Tuvimos muchas discusiones sobre cómo evitar aumentar inadvertidamente las disparidades dentro de la comunidad científica. Por ejemplo, las llamadas enfermedades tropicales desatendidas, que afectan desproporcionadamente a las partes más pobres del mundo, a menudo reciben menos financiamiento para la investigación de lo que deberían. Se nos alentó enérgicamente a priorizar el apoyo práctico y buscar activamente asociarnos con grupos que trabajan en estas áreas.

Estableciendo nuestro enfoque de lanzamiento

Basado en los aportes anteriores, el IRC respaldó una serie de lanzamientos de AlphaFold para abordar múltiples necesidades, incluyendo:

  • Publicaciones revisadas por pares y código fuente abierto, incluyendo dos artículos en Nature, acompañados de código fuente abierto, para permitir a los investigadores implementar y mejorar más fácilmente AlphaFold. Poco después, agregamos un Google Colab que permite a cualquier persona ingresar una secuencia de proteínas y recibir una estructura predicha, como una alternativa para ejecutar el código fuente abierto ellos mismos.
  • Un lanzamiento importante de predicciones de estructuras proteicas en asociación con EMBL-EBI (Instituto Europeo de Bioinformática de EMBL), líder de la comunidad establecida. Como institución pública, EMBL-EBI permite a cualquier persona buscar predicciones de estructuras de proteínas tan fácilmente como una búsqueda en Google. El lanzamiento inicial incluyó formas predichas para cada proteína en el cuerpo humano, y nuestra actualización más reciente incluyó estructuras predichas para casi todas las proteínas catalogadas conocidas por la ciencia. Esto suma más de 200 millones de estructuras, todas disponibles de forma gratuita en el sitio web de EMBL-EBI con licencias de acceso abierto, acompañadas de recursos de apoyo, como webinars sobre la interpretación de estas estructuras.
  • Incorporar visualizaciones 3D en la base de datos, con etiquetado prominente para áreas de alta y baja confianza de la predicción, y, en general, buscando ser lo más claros posible sobre las fortalezas y limitaciones de AlphaFold en nuestra documentación. También diseñamos la base de datos para que sea lo más accesible posible, por ejemplo, considerando las necesidades de las personas con deficiencia de visión de color.
  • Formar asociaciones más profundas con grupos de investigación que trabajan en áreas desfavorecidas, como enfermedades desatendidas y temas críticos para la salud global. Esto incluye DNDi (Iniciativa de Medicamentos para Enfermedades Desatendidas), que está avanzando en la investigación sobre la enfermedad de Chagas y la leishmaniasis, y el Centro de Innovación de Enzimas, que está desarrollando enzimas que consumen plástico para ayudar a reducir los residuos plásticos en el medio ambiente. Nuestros equipos crecientes de participación pública continúan trabajando en estas asociaciones para apoyar más colaboraciones en el futuro.

Cómo estamos construyendo sobre este trabajo

Desde nuestro lanzamiento inicial, cientos de miles de personas de más de 190 países han visitado la Base de Datos de Estructura de Proteínas de AlphaFold y han utilizado el código abierto de AlphaFold desde su lanzamiento. Nos sentimos honrados de escuchar las formas en las que las predicciones de AlphaFold han acelerado esfuerzos científicos importantes y estamos trabajando para contar algunas de estas historias con nuestro proyecto Unfolded. Hasta ahora, no tenemos conocimiento de ningún mal uso o daño relacionado con AlphaFold, aunque seguimos prestando mucha atención a esto.

Aunque AlphaFold fue más complejo que la mayoría de los proyectos de investigación de DeepMind, estamos utilizando elementos de lo que hemos aprendido e incorporándolos en otros lanzamientos.

Estamos construyendo sobre este trabajo al:

  • Aumentar el rango de aportaciones de expertos externos en cada etapa del proceso, y explorar mecanismos para la ética participativa a mayor escala.
  • Ampliar nuestra comprensión de la IA para la biología en general, más allá de cualquier proyecto o avance individual, para desarrollar una visión más sólida de las oportunidades y riesgos a lo largo del tiempo.
  • Encontrar formas de ampliar nuestras asociaciones con grupos en campos que no son atendidos adecuadamente por las estructuras actuales.

Al igual que nuestra investigación, esto es un proceso de aprendizaje continuo. El desarrollo de la IA para beneficio general es un esfuerzo comunitario que va mucho más allá de DeepMind.

Estamos haciendo todo lo posible para ser conscientes de la cantidad de trabajo duro que aún queda por hacer en colaboración con otros, y de cómo avanzamos de manera responsable.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Una nueva investigación de IA de Italia presenta un modelo generativo basado en difusión capaz tanto de la síntesis musical como de la separación de fuentes

Los seres humanos son capaces de procesar varias fuentes de sonido al mismo tiempo, tanto en términos de composición ...

Inteligencia Artificial

Robot Blando Camina al Inflarse Repetidamente

Investigadores de la Universidad de Cornell y del Instituto Tecnológico de Israel, Technion, han diseñado un robot cu...

Inteligencia Artificial

Vínculo de datos de dispositivos portátiles vincula la reducción del sueño y la actividad durante el embarazo con el riesgo de parto prematuro

Los científicos han asociado la falta de sueño y la reducción de la actividad física durante el embarazo con el riesg...

Investigación

Los investigadores utilizan la IA para identificar materiales similares en imágenes.

Este método de aprendizaje automático podría ayudar en la comprensión de escenas robóticas, la edición de imágenes o ...