Las Nuevas Implicaciones Éticas de la Inteligencia Artificial Generativa

Las Nuevas Implicaciones Éticas de la Inteligencia Artificial Generativa en el Mundo de la Moda y la Belleza

La velocidad a la que avanza el panorama de la IA avanzada es increíblemente rápida. Pero también lo son los riesgos que conlleva.

La situación es tal que se ha vuelto difícil para los expertos prever los riesgos.

Mientras que la mayoría de los líderes están dando prioridad cada vez más a las aplicaciones de GenAI en los próximos meses, también son escépticos sobre los riesgos que conlleva: preocupaciones de seguridad de datos y resultados sesgados, por nombrar algunos.

Mark Suzman, CEO de la Fundación Bill y Melinda Gates, cree que “si bien esta tecnología puede llevar a avances que pueden acelerar el progreso científico y mejorar los resultados de aprendizaje, la oportunidad no está exenta de riesgos”.

 

 

Comencemos con los datos

 

Considere esto: un famoso creador de modelos de IA generativa afirma: “Recopila información personal, como nombre, dirección de correo electrónico e información de pago, cuando sea necesario para fines comerciales”.

Los tiempos recientes han demostrado múltiples formas en que puede salir mal sin un marco guía.

  • Italia expresó preocupaciones sobre la recopilación ilegal de datos personales de los usuarios, citando “no hay una base legal para justificar la recopilación masiva y el almacenamiento de datos personales para ‘entrenar’ los algoritmos que sustentan la operación de la plataforma”.
  • La Comisión de Protección de Información Personal de Japón también emitió una advertencia para la recopilación mínima de datos para entrenar modelos de aprendizaje automático.
  • Los líderes de la industria en HBR también destacan preocupaciones de seguridad de datos y resultados sesgados.

Dado que los modelos de IA generativa se entrenan con datos de casi todo Internet, somos una parte fraccionaria oculta en esas capas de redes neuronales. Esto subraya la necesidad de cumplir con las regulaciones de privacidad de datos y no entrenar modelos con datos de los usuarios sin su consentimiento.

Recientemente, una de las empresas fue multada por crear una herramienta de reconocimiento facial raspar selfies de Internet, lo que provocó una violación de privacidad y una multa considerable.

  

Sin embargo, la seguridad de los datos, la privacidad y el sesgo ya existían antes de la era de la IA generativa. Entonces, ¿qué ha cambiado con el lanzamiento de las aplicaciones de IA generativa?

Bueno, algunos riesgos existentes solo se han vuelto más arriesgados, dada la escala a la que se entrenan y despliegan los modelos. Veamos cómo.

 

Escala: una espada de doble filo

 

Alucinación, inyección de indicaciones y falta de transparencia

 

Comprender el funcionamiento interno de estos modelos colosales para confiar en su respuesta se ha vuelto aún más importante. En palabras de Microsoft, estos riesgos emergentes se deben a que los LLM están “diseñados para generar texto que parece coherente y contextualmente apropiado en lugar de adherirse a la precisión de los hechos”.

Consecuentemente, los modelos podrían producir respuestas engañosas e incorrectas, comúnmente conocidas como alucinaciones. Pueden surgir cuando el modelo carece de confianza en las predicciones, lo que lleva a la generación de información menos precisa o irrelevante.

Además, el planteamiento es cómo interactuamos con los modelos de lenguaje; ahora, los actores malintencionados podrían generar contenido perjudicial mediante la inyección de indicaciones.

 

¿Responsabilidad cuando la IA se equivoca?

 

El uso de LLM plantea interrogantes éticas sobre la responsabilidad de los resultados generados por estos modelos y los resultados sesgados, como ocurre en todos los modelos de IA.

Los riesgos se agravan con aplicaciones de alto riesgo, como en el sector de la salud; piense en las repercusiones de un consejo médico incorrecto para la salud y vida del paciente.

La conclusión es que las organizaciones necesitan construir maneras éticas, transparentes y responsables de desarrollar y usar la Inteligencia Artificial Generativa.

Si estás interesado en aprender más sobre quién tiene la responsabilidad de hacer bien la Inteligencia Artificial Generativa, considera leer este artículo que describe cómo todos nosotros podemos unirnos como comunidad para hacerlo funcionar.

 

 

Dado que estos modelos grandes se construyen sobre material de todo el mundo, es muy probable que hayan consumido creaciones – música, video o libros.

Si se utiliza información con derechos de autor para entrenar modelos de inteligencia artificial sin obtener los permisos, créditos o compensaciones necesarios de los creadores originales, se produce una infracción de derechos de autor y los desarrolladores pueden enfrentar graves problemas legales.

 

 

Deepfake, Desinformación y Manipulación

 

Aquel con alta probabilidad de causar estragos a gran escala son los deepfakes, ¿te preguntas en qué problemas nos puede meter la capacidad de hacer deepfakes?

Son creaciones sintéticas -texto, imágenes o videos- que pueden manipular digitalmente la apariencia facial mediante métodos generativos profundos.

¿Resultado? Acoso, desinformación, llamadas falsas, venganza o fraude, cosas que no encajan en la definición de un mundo próspero.

El artículo busca concientizar a todos de que la IA es una espada de doble filo: no es magia que solo funciona en iniciativas importantes, sino que los actores malintencionados también forman parte de ella.

Es ahí donde necesitamos estar alerta.

 

Medidas de Seguridad

 

Toma como ejemplo la noticia reciente de un video falso que destaca la retirada de uno de los políticos de las próximas elecciones.

¿Cuál podría ser el motivo?, podrías preguntarte. Bueno, desinformación de este tipo se extiende como un incendio en poco tiempo y puede impactar severamente la dirección del proceso electoral.

Entonces, ¿qué podemos hacer para no caer en la trampa de esa información falsa?

Existen varias formas de defensa, comencemos con las más básicas:

  • Sé escéptico y duda de todo lo que ves a tu alrededor.
  • Cambia a un modo predeterminado de “puede que no sea cierto”, en lugar de aceptar todo tal como se presenta. En resumen, cuestiona todo lo que te rodea.
  • Confirma el contenido digital potencialmente sospechoso a través de múltiples fuentes.

 

¿Pausar el Desarrollo es una Solución?

 

Investigadores destacados en IA y expertos en la industria como Yoshua Bengio, Stuart Russell, Elon Musk, Steve Wozniak y Yuval Noah Harari también han expresado sus preocupaciones, pidiendo una pausa en el desarrollo de este tipo de sistemas de IA.

Existe un gran temor de que la carrera por construir IA avanzada, igualando el poder de la IA Generativa, pueda salir rápidamente de control.

 

Hay Algo de Progreso

 

Microsoft recientemente anunció que protegerá a los compradores de sus productos de IA contra implicaciones de infracción de derechos de autor siempre y cuando cumplan con límites y filtros de contenido. Esto es un gran alivio y muestra la intención correcta de asumir la responsabilidad por las repercusiones del uso de sus productos, lo cual es uno de los principios fundamentales de los marcos éticos.

Esto asegurará que los autores conserven el control de sus derechos y reciban una compensación justa por sus creaciones.

¡Es un gran avance en la dirección correcta! La clave está en ver cuánto resuelve las preocupaciones de los autores.

 

¿Qué sigue?

 

Hasta ahora, hemos discutido las principales implicaciones éticas relacionadas con la tecnología para hacerlo bien. Sin embargo, el riesgo de la pérdida de empleo es uno de los que surge del exitoso uso de este avance tecnológico.

Existe un sentimiento que infunde temor de que la inteligencia artificial reemplace la mayor parte de nuestro trabajo. McKinsey recientemente compartió un informe sobre cómo será el futuro del trabajo.

Este tema requiere un cambio estructural en cómo pensamos en el trabajo y merece una publicación aparte. Así que estén atentos a la próxima publicación, que tratará sobre el futuro del trabajo y las habilidades que pueden ayudarte a sobrevivir en la era de la inteligencia artificial y prosperar.

[Vidhi Chugh](https://vidhi-chugh.medium.com/) es una estratega de IA y líder de transformación digital que trabaja en la intersección de productos, ciencias e ingeniería para construir sistemas escalables de aprendizaje automático. Es una líder innovadora galardonada, autora y conferencista internacional. Su misión es democratizar el aprendizaje automático y romper el lenguaje técnico para que todos puedan ser parte de esta transformación.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

¿Pueden los robots cuadrúpedos de bajo costo dominar el parkour? Revelando un revolucionario sistema de aprendizaje para el movimiento ágil de robots

La búsqueda de hacer que los robots realicen tareas físicas complejas, como navegar por entornos desafiantes, ha sido...

Inteligencia Artificial

Productividad impulsada por IA la IA generativa abre una nueva era de eficiencia en todas las industrias

Un momento crucial el 22 de noviembre de 2022 fue en su mayoría virtual, pero sacudió los cimientos de casi todas las...

Inteligencia Artificial

Un cambio de paradigma en el desarrollo de software los agentes de inteligencia artificial AI de GPTConsole abren nuevos horizontes

En una industria donde el cambio es la única constante, GPTConsole ha presentado un trío de agentes de IA que destaca...

Inteligencia Artificial

Este boletín de IA es todo lo que necesitas #65

Esta semana en IA, tuvimos avances en la regulación de la IA desde el Capitolio líderes tecnológicos como Elon Musk y...

Inteligencia Artificial

¿Qué tan seguro es el aire de tu oficina? Hay una forma de averiguarlo

Los sensores de calidad del aire interior instalados en edificios comerciales durante la pandemia ahora están resulta...