El caso en contra de la regulación de la IA no tiene sentido
No tiene sentido la regulación de la IA
Opinión
Europa está en el camino correcto: el resto del mundo debería seguirlo
Desde que OpenAI lanzó ChatGPT al mundo a finales de 2022, el mundo ha estado lleno de conversaciones sobre la Inteligencia Artificial Generativa y el futuro que podría crear. Los fanáticos del capitalismo ven esta tecnología como un beneficio neto; la continuación lógica del mundo digital, que ha contribuido a la creación de riqueza incalculable… para unos pocos selectos. Los escépticos, por otro lado, recuerdan lo mejor de la ciencia ficción de los años 80 y temen que estemos en camino de crear nuestro propio HAL / SHODAN / Ultron / SkyNet / GLaDOS.
Estas son las minorías ruidosas. La mayoría de las personas que se les presentan las posibilidades ofrecidas por la Inteligencia Artificial Generativa comprenden que la tecnología es simplemente una herramienta, sin una mente propia. La responsabilidad recae en los usuarios de “hacer el bien” con ella. Y si eso no es posible porque el “bien” es inherentemente subjetivo… entonces los gobiernos democráticos deben intervenir y regular.
Cómo (y si) se debe hacer esto aún se debate acaloradamente. La Unión Europea fue la primera en proponer la Ley de IA. Es un primer borrador imperfecto, pero tiene la ventaja de ser un intento real de gestionar una tecnología altamente disruptiva en lugar de dejar que los multimillonarios tecnológicos tomen decisiones. A continuación se muestra un resumen de la ley propuesta y los pros y contras de tales regulaciones.
¿Qué hay en la Ley de IA de la UE?
La Ley de IA coloca el riesgo en el centro de la discusión: “Las nuevas normas establecen obligaciones para los proveedores y usuarios según el nivel de riesgo de la inteligencia artificial. Si bien muchos sistemas de IA presentan un riesgo mínimo, deben evaluarse”.
- Lo mejor de ambos mundos desarrolladores humanos y colaboradores de IA
- ¡Atención Industria del Gaming! No más espejos extraños con Mirror-NeRF
- Optimización del tamaño del archivo de salida en Apache Spark
- La IA que representa niveles “inaceptables” de riesgo (manipulación del comportamiento, biometría en tiempo real y remota, puntuación social…) será prohibida
- Los sistemas de IA de alto riesgo (relacionados con la aplicación de la ley, la educación, la inmigración…) “se evaluarán antes de ponerlos en el mercado y también a lo largo de su ciclo de vida”
- Los sistemas de IA de riesgo limitado deberán “cumplir con requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones informadas”.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- GANs (Redes Generativas Adversarias)
- La IA es crucial para la ciberseguridad en el ámbito de la salud
- Clasificación de texto sin entrenamiento previo con Amazon SageMaker JumpStart
- ¿Qué tienen en común una medusa, un gato, una serpiente y un astronauta? Matemáticas
- Una introducción gentil a los modelos de lenguaje grandes de código abierto
- 5 Formas Prácticas de Utilizar la IA Que También Puedes Usar
- ¿De quién es la responsabilidad de hacer que la IA generativa sea correcta?