5 Preocupaciones en torno a la Escalabilidad y Adopción de la IA

5 preocupaciones sobre escalabilidad y adopción de IA

A lo largo de los años, ha habido una creciente preocupación sobre el impacto de la IA en la sociedad. Pero, esto solo ha crecido desde la introducción del popular Chatbot, ChatGPT. Tanto la imaginación del público como los profesionales experimentados en datos se han desbordado. Muchos hacen preguntas bastante similares cuando se trata de IA. Entonces uno se pregunta, ¿cuáles son las preocupaciones y cómo podemos abordarlas en el campo de la ciencia de datos y más allá?

En las siguientes secciones, analizaremos algunas de estas preocupaciones relacionadas con la IA e incluso algunas formas de abordarlas.

Preocupación #1: Sesgo e imparcialidad en la IA

La imparcialidad y el sesgo no son solo un problema aislado con la inteligencia artificial, sino uno que se siente en todo el campo. Pero, debido a cómo se entrenan los algoritmos de IA utilizando grandes cantidades de datos, si esos datos contienen sesgos, el sistema de IA puede heredar y perpetuar esos sesgos incluso si los programadores no tienen la intención de hacerlo. Se pueden ver algunos ejemplos de esto con programas de IA en diferentes campos.

La IA está ingresando al campo de recursos humanos y se está convirtiendo rápidamente en parte del proceso de contratación general. Si el modelo tiene sesgos, podría significar que los solicitantes calificados podrían perder oportunidades laborales. Esto se puede ver con algunos sistemas de solicitud que requieren palabras clave para filtrar posibles candidatos. Si no se entrena correctamente o carece de contexto que es importante para algunos campos, podría excluir a grupos enteros de personas sin justa causa.

Como muchos científicos de datos saben, el valor de los datos radica en los fundamentos de la recopilación y curación de datos. Entonces, para abordar esta preocupación en particular, hay algunas cosas que se pueden hacer. Primero, asegurarse de que los datos de entrenamiento sean diversos, representativos y estén libres de suposiciones sesgadas es crucial. Luego, por supuesto, hay que asegurarse de que los datos estén limpios y sean bien cuidados. Finalmente, es necesario realizar un monitoreo continuo de los sistemas de IA. Esto se puede hacer durante la implementación y se pueden realizar ajustes según sea necesario.

Preocupación #2: Privacidad y seguridad de datos

Otra preocupación importante que ha captado la atención del público tiene que ver con la privacidad y seguridad de los datos.

Es bien sabido que los modelos y otros sistemas impulsados por IA a menudo dependen de grandes cantidades de datos personales para realizar predicciones y tomar decisiones precisas. Esto podría provenir de la extracción de datos web e incluso de otras fuentes de datos públicos sin conexión. Pero con todos esos datos, y a menudo vinculados a individuos de alguna forma, la recopilación, almacenamiento y uso de dichos datos ha planteado importantes preocupaciones de privacidad.

Aunque para muchos, lo primero que podría venir a la mente son las violaciones de datos, a menudo es el mal uso de los datos lo que tiende a ser de mayor riesgo. Esto se debe a que, con el mal uso y manipulación de datos, se puede discriminar a un grupo de personas o aplicar un sesgo en un modelo de IA. Ni siquiera se menciona el nivel micro donde se podría utilizar suficientes datos personales para robar identidades. Considere los avances en la tecnología deepfake. Un poco de sus datos de texto y voz podría usarse para crear una conversación con IA que podría engañar incluso a las personas más cercanas a usted.

Entonces, ¿cómo se puede abordar esto? Hay algunas cosas que se pueden hacer. Primero, la ausencia de requisitos de cumplimiento normativo, propiedad de datos y consentimiento suele ser la primera barrera. Si los individuos tienen control sobre sus datos y brindan su consentimiento explícito, cada persona tiene el control, lo que dificulta el aprovechamiento de los datos para causar daño. En cuanto a la recopilación de datos, existe la minimización de datos. En resumen, solo se conectan los datos necesarios para entrenar un modelo, evitando información personal innecesaria que podría poner en riesgo la privacidad de una persona.

Finalmente, para aquellos en ciberseguridad, se deben implementar medidas de seguridad adecuadas y cifrado sólido. Asegurarse de que haya un diseño de cifrado robusto con protocolos de seguridad adecuados para proteger los datos contra el acceso no autorizado reduce en gran medida la probabilidad de que los datos de las personas estén en riesgo.

Preocupación #3: Desempleo y desplazamiento laboral

Este es el elefante en la habitación y el que necesita un poco más de atención. Aunque muchos en la ciencia de datos están legítimamente emocionados por las perspectivas de la IA, como la forma en que puede ser una nueva herramienta para ayudar a la humanidad en su conjunto, hay preocupaciones crecientes de que la adopción creciente de la IA y la automatización podrían llevar a un desplazamiento laboral a largo plazo. Esto es particularmente preocupante en puestos que tienen tareas repetitivas y rutinarias que la IA suele ser la más adecuada para asumir.

Y este no es solo un temor de una sola clase económica de trabajadores. La inteligencia artificial, y con ella la robótica, tiene el potencial de sacudir los cimientos del mercado laboral. Tanto los puestos de cuello blanco como los de cuello azul podrían experimentar cambios importantes en los próximos años, de diferentes maneras. Esto ha llevado a muchos a preguntarse cómo se debe abordar esta preocupación cuando se trata de la fuerza laboral.

Bueno, una forma, por supuesto, sería incentivar la reconversión y la adquisición de habilidades de las partes del mercado laboral que son más propensas a verse afectadas por la inteligencia artificial. Esto permite a los trabajadores tomar el control de su destino profesional y adaptarse a la naturaleza siempre cambiante del mercado laboral. Otra parte de la solución sería la colaboración entre la inteligencia artificial y los seres humanos, o la integración humano/IA. A principios de este año, el CEO de Microsoft, Satya Nadella, dijo que creía que la IA no reemplazaría al trabajador, sino que lo mejoraría.

Por lo tanto, encontrar formas de alentar a las empresas a ver los beneficios de la IA como parte del lugar de trabajo será beneficioso, no como un medio para reemplazar a los empleados. Pero algunos creen que esto no será suficiente. A medida que la IA continúe escalando y expandiéndose rápidamente en el mercado, muchos se quedarán sin la flexibilidad necesaria para adquirir nuevas habilidades o encontrar otro puesto que valore la integración humano/IA. Uno de los más preocupados es el cofundador de DeepMind, Mustafa Suleyman, quien dijo que parte de la solución debería ser un ingreso básico universal, o UBI.

Aunque no hay una solución única para abordar esta preocupación, es una que preocupa a muchos, ya que las interrupciones económicas no son solo números en papel. Se trata de personas con familias y hogares, todos tratando de encontrar formas de salir adelante.

Preocupación #4: Armas autónomas y uso militar de la IA

Si hay algo sobre la naturaleza humana en lo que podemos confiar, es que en algún momento dos grupos chocarán en una guerra. Aunque popularizadas por películas de ciencia ficción como Terminator, las armas autónomas aún no han llegado a ese punto. Pero el verdadero problema radica en el dilema ético de eliminar el elemento humano del campo de batalla. Permitir que la IA controle el campo con poco o ningún aporte humano podría abrir la puerta para que los estados nacionales se preocupen menos por las consecuencias de la acción militar, ya que el personal humano está lejos del frente.

Esto también podría aumentar la letalidad, la violencia y la brutalidad de la guerra. Finalmente, es probable que una IA incontrolable, en algún momento, falle y cree una situación peor en el frente.

Entonces, ¿cómo se podría abordar esta preocupación?

En primer lugar, el sector privado ya ha comenzado a intervenir. El año pasado, importantes empresas de robótica como Boston Dynamics firmaron un compromiso de no avanzar en la tecnología de robótica impulsada por IA para la guerra. Aunque este acuerdo es un gran primer paso, no es legalmente vinculante y solo se aplica a las principales empresas, no a las startups. Otra forma de abordar esto es a través de acuerdos internacionales. Al igual que las armas químicas y biológicas fueron prohibidas después de la Primera Guerra Mundial, las naciones pueden unirse y acordar no eliminar el elemento humano.

Pero debido a que eliminar el elemento humano podría ser políticamente beneficioso para la mayoría de los estados nacionales, la probabilidad de que esto ocurra no es alta. Finalmente, al igual que los marcos de sesgo anti-IA, se podrían establecer marcos éticos que creen pautas claras y principios para el uso de la IA en aplicaciones militares.

Preocupación #5: Superinteligencia y Riesgo Existencial

Finalmente, la última preocupación de la lista, y es de lejos la más interesante y espeluznante al mismo tiempo. Skynet, HAL-9000 y la civilización de las máquinas de las películas de Matrix son ejemplos de IA en el cine popular y de cómo la superinteligencia salió mal. Pero no solo eso, su existencia representa un riesgo fundamental y existencial para la humanidad. Así que no es de extrañar que el miedo a una IA superinteligente solo haya crecido, e incluso algunos expertos han dado la señal de alarma de que una IA superinteligente, aunque aún podría estar lejos, podría causar un daño real a la raza humana.

Entonces, aparte de destruir todas las computadoras y volver a la revolución industrial, ¿cuáles son algunas formas en que se puede abordar la superinteligencia de la IA?

En primer lugar, desarrollar IA con marcos éticos es crítico. Si se deja a la IA ciega, sin principios rectores de los valores humanos, las cosas pueden salir mal rápidamente. Esto implica ajustar el sesgo y otras anomalías en los modelos que podrían generar respuestas o comportamientos riesgosos. Luego, está la investigación de seguridad de la IA. El objetivo de esto es invertir capital, mano de obra humana y tiempo para anticipar y mitigar posibles riesgos y vulnerabilidades. Aunque todavía es un subcampo nuevo en la inteligencia artificial, al trabajar en principios como estos, se podría reducir en gran medida el riesgo de que una IA superinteligente salga mal.

Conclusión

¿Bastante interesante, verdad? Está claro que la IA está aquí para quedarse y continuará creciendo, por lo que la necesidad de una IA responsable aumentará con ella. Es por eso que en ODSC West, la IA responsable tendrá su propia sección. Ven a ODSC West del 30 de octubre al 2 de noviembre y conoce a los expertos que lideran el campo, lo que tienen que decir y cómo podría ser un mundo con una IA responsable.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

¡Abrocha tu cinturón ¡El Falcon 180B está aquí!

Vamos a sumergirnos en el modelo de lenguaje abierto más grande del mundo.

Noticias de Inteligencia Artificial

La Influencia Revolucionaria de la Inteligencia Artificial Generativa en la Industria Automotriz

La IA generativa ha surgido como una fuerza transformadora en numerosos sectores, incluida la industria automotriz, d...

Inteligencia Artificial

Rice e IIT Kanpur anuncian los ganadores del Premio de Investigación Colaborativa

La Universidad Rice y el Instituto Indio de Tecnología Kanpur han anunciado los primeros beneficiarios del programa d...

Inteligencia Artificial

Bloqueo de Apple de Beeper Mini en iMessage solo es parte de la gran saga de la burbuja azul/verde

Apple toma medidas preventivas para proteger a sus clientes. Beeper afirma que el último movimiento de Apple hace exa...

Inteligencia Artificial

PhotoGuard de MIT utiliza inteligencia artificial para defenderse contra la manipulación de imágenes por inteligencia artificial

A medida que la inteligencia artificial (IA) avanza, la capacidad de generar y manipular imágenes hiperrealistas se v...