John Isaza, Esq., FAI sobre Navegando el Paisaje Legal de la IA y ChatGPT
John Isaza, Esq., FAI on Navigating the Legal Landscape of AI and ChatGPT.
Agradecemos a John Isaza, Esq., FAI, socio de Rimon Law, quien compartió su historia y valiosas ideas sobre varios aspectos, incluido el panorama legal en evolución, el delicado equilibrio entre la protección de la privacidad y la innovación, y las distintas implicaciones legales que surgen al integrar herramientas de inteligencia artificial.
John brinda perspectivas valiosas sobre los desafíos y consideraciones relacionados con tecnologías de inteligencia artificial como ChatGPT, enfatizando la importancia de la gobernanza de datos, el uso ético y el cumplimiento de las leyes de privacidad. Además, comparte su experiencia de primera mano en el lanzamiento de Virgo, una solución de software basada en la nube diseñada para abordar las necesidades específicas de privacidad y gobernanza de la información.
Explorando la Intersección de la Ley, la Privacidad y la Innovación: Ideas y Estrategias
¿Qué despertó su interés en la intersección de la ley y la privacidad/gobernanza de la información?
Siempre me ha atraído la exploración de territorios desconocidos para mantener las cosas interesantes. Comencé en la gobernanza de la información en 2001 cuando la gestión de registros e información se centraba principalmente en prácticas de registros en papel. Pero, tuve un jefe que me animó a centrarme en los registros y datos electrónicos, que él veía como la ola del futuro. Así que decidí convertirme en un experto en todo lo electrónico. Esto me llevó a ocupar varios puestos de liderazgo, incluido el presidente de la junta de certificación de profesionales de gobernanza de la información. Esta junta se encargó de supervisar la transición de la industria de gestión de registros hacia la gobernanza de la información más amplia, que incluye la privacidad, entre otras disciplinas clave como la seguridad de datos, la e-discovery, la arquitectura de sistemas, la infraestructura y la gestión de registros tradicional.
- Las personas contratadas para entrenar a la inteligencia artificial están subcontratando su trabajo… a la inteligencia artificial.
- Cómo usar Wonder Dynamics conviértete en un personaje en 3D
- Celebra los buenos tiempos en 3D con ‘Kingsletter’ esta semana ‘En el estudio de NVIDIA’.
¿Cómo se mantiene actualizado con los últimos desarrollos y cambios en las leyes y regulaciones de privacidad?
Esta no es tarea fácil. Las organizaciones comerciales como ARMA, la ABA y la IAPP son excelentes recursos para seguir los últimos desarrollos. Como presidente del Subcomité de Privacidad del Consumidor y Análisis de Datos de la ABA, también tengo la ventaja de aprovechar el talento y la experiencia de varios profesionales legales que están muy interesados en el tema. Colaboramos a menudo en publicaciones y eventos de habla que nos obligan a estar al tanto de los últimos desarrollos.
¿Cómo aborda el equilibrio entre la protección de la privacidad y la innovación habilitadora en la era digital?
Aquí es donde mi experiencia como empresario es más útil. Tenemos que equilibrar medidas regulatorias estrictas y a veces draconianas con las realidades de mantener las luces encendidas y obtener ganancias. Como asesor legal, mi trabajo es señalar a los clientes sus opciones y las consecuencias asociadas con cada opción. En última instancia, para los clientes, la cuestión del cumplimiento de la privacidad se reduce a una decisión basada en el riesgo, como si y cuán grande podría ser el objetivo en su contra en función de su oferta en el mercado.
Lanzamiento de Virgo: Software de Nube que Aborda la Privacidad y el Cumplimiento Legal
¿Qué lo motivó a lanzar su software basado en la nube, Virgo, y cómo aborda las necesidades de privacidad y gobernanza de la información?
Virgo informa sobre los requisitos legales globales no solo para la retención de registros, sino también para las regulaciones de privacidad, formato, ubicación, disposición y requisitos de plazos de prescripción. Estas regulaciones se asignan a los registros de la organización en lo que llamamos “grandes grupos” que se les asigna un período de retención específico informado por las regulaciones asignadas que se aplican a un grupo determinado, además de consideraciones de mejores prácticas.
En general, Virgo administra el calendario de retención de registros de la organización, que es la primera línea de defensa no solo para la e-discovery, sino también para justificar la retención frente a solicitudes de privacidad para eliminar o la disposición general de privacidad para desechar cuando ya no se necesita.
Co-fundé Virgo cuando se volvió demasiado engorroso manejar cientos de miles de regulaciones en este espacio mientras intentaba asignarlos a los registros de cada organización. Curiosamente, logramos mantenernos competitivos contra bufetes de abogados globales como Baker & McKenzie aprovechando herramientas de traducción que fueron los precursores de las herramientas de inteligencia artificial modernas. Nuestra investigación no solo fue mejor sino que también fue a una fracción del precio que los enormes bufetes de abogados podrían cobrar a un cliente.
Con tu experiencia en el lanzamiento de un software basado en la nube, Virgo, ¿cómo navegaste por los aspectos legales y de cumplimiento relacionados con la privacidad y protección de datos?
La privacidad y protección de datos se volvieron cada vez más importantes a medida que empresas más grandes se suscribían a nuestro software, como Boeing, Microsoft o NASA. Cada una de ellas venía con requisitos estrictos de cumplimiento de seguridad de datos que nos obligaron a adoptar los estándares de seguridad más estrictos y, por lo tanto, facilitaron la venta del software en general. Los primeros fueron extremadamente dolorosos, pero luego se hizo mucho más fácil. Una vez que cumples con los requisitos más exigentes, se vuelve mucho más fácil navegar por los requisitos locales o regionales.
El panorama legal con IA: desafíos y tendencias
Como experto en descubrimiento electrónico, privacidad y gobierno de la información, ¿cómo ves la evolución del panorama legal con el aumento del uso de tecnologías de IA como ChatGPT?
El panorama legal ya está comenzando a tomar forma, liderado por la Unión Europea con su propuesto Acta de IA. El Acta de IA establece un buen marco regulador inicial que prefigura hacia dónde podrían ir otros países a continuación en busca de aprovechar y establecer límites en torno al uso de la IA. La realidad es que los proveedores de IA tendrán que acostumbrarse a navegar por mandatos regulatorios posiblemente conflictivos, lo que llevará a un enfoque basado en el riesgo similar a lo que acabo de describir con respecto al cumplimiento de la privacidad.
¿Puedes compartir algunas ideas sobre los desafíos legales y consideraciones únicas que surgen al integrar tecnologías de IA en aplicaciones como ChatGPT?
En primer lugar, distingamos entre herramientas de IA públicas y privadas. Las herramientas de IA públicas (como ChatGPT, Bard de Google, Bing de Microsoft o Dall-E) plantean los mayores desafíos cuando se trata de la integridad de los datos, ya que los datos de muestra podrían provenir de datos no verificados extraídos durante años de Internet público. Esto genera preocupaciones no solo sobre la validez de los resultados, sino también sobre si presenta problemas de responsabilidad legal de derechos de autor, marca registrada y otros. Las herramientas de IA públicas también presentan serios desafíos de confidencialidad que las organizaciones deben resolver de inmediato mediante políticas y capacitación para evitar que los empleados ingresen información privada o confidencial en herramientas de IA públicas que esencialmente ingieren cualquier dato ingresado para siempre y para que cualquier persona en el mundo lo vea.
Los desafíos para las herramientas de IA privadas se centran principalmente en el uso de conjuntos de datos de capacitación limpios y precisos para evitar el viejo dilema de “basura entra, basura sale”.
En ambos casos, las herramientas deben ser probadas por humanos para detectar sesgos que puedan llevar a difamación o discriminación por parte del algoritmo.
¿Cuáles son algunos marcos legales y regulatorios clave de los que las empresas deben tener en cuenta al implementar tecnologías de IA como ChatGPT?
En la actualidad, no hay muchos marcos regulatorios, aparte del Acta de IA de la UE, que aún está pasando por el proceso de aprobación. La ciudad de Nueva York también tiene una ley en vigor, pero como podrás imaginar, queda mucho por venir a nivel estatal e incluso federal en EE. UU.
Por el momento, prestaría mucha atención al Acta de IA de la UE, que como mencioné anteriormente parece tener un buen marco inicial para ayudar al menos a establecer prioridades para qué usos de IA se consideran altamente sensibles y, por lo tanto, están sujetos a un escrutinio más estricto.
¿Existen sectores industriales o casos de uso específicos en los que las implicaciones legales de la integración de ChatGPT sean más pronunciadas? Si es así, ¿podrías proporcionar algunos ejemplos?
Solo con mirar el Acta de IA de la UE, uno puede discernir rápidamente los usos que recibirán el escrutinio más cercano. Por ejemplo, las aplicaciones del sistema de IA de “alto riesgo” incluyen infraestructura crítica que podría poner en peligro la vida o la salud de un ciudadano, el acceso de una persona a la educación o la carrera que podría influir en la capacitación educativa o laboral, cirugía asistida por robots, contratación de empleo, puntajes de crédito, evaluación de pruebas penales, inmigración, asilo o determinaciones del control de fronteras y aplicación de la ley a un cierto conjunto de hechos.
.medrectangle-4-multi-340{border:none !important;display:block !important;float:none !important;line-height:0px;margin-bottom:15px !important;margin-left:auto !important;margin-right:auto !important;margin-top:15px !important;max-width:100% !important;min-height:250px;min-width:250px;padding:0;text-align:center !important;width:100%;}
La Ley de Inteligencia Artificial también enumera ejemplos de “riesgo limitado” y “riesgo mínimo”, además de sistemas de “riesgo inaceptable” que estarían prohibidos, como aquellos que explotarían el comportamiento humano. El diablo estará en los detalles cuando se trate de la aplicación, pero como he mencionado, este es el comienzo de un marco para la aplicación regulatoria y por lo tanto, para la orientación.
En cuanto a la gobernanza de datos, ¿qué mejores prácticas recomienda para las organizaciones que están aprovechando las tecnologías de IA para garantizar el cumplimiento de las leyes y regulaciones de privacidad de datos?
Aquí hay una lista de lo que he estado recomendando a las organizaciones:
- Siga las leyes internacionales destinadas a poner controles alrededor del uso de la IA
- Permanezca vigilante ante errores en los datos y el uso de PI protegidos, especialmente imágenes y audiovisuales
- Incluya obligaciones de lenguaje anti-bias en cualquier contrato de IA generativa
- Obligue contractualmente a todos los proveedores a no usar IA sin verificación de hechos humanos
- Obtenga compromisos y contratos con garantías sobre la legitimidad del uso de datos de entrenamiento
- Los usuarios de la IA deben tener cuidado de que la salida de la IA no muestre sesgos para activar las leyes de discriminación
- Use la IA Explicable (XAI) para entender suposiciones
- Preste atención al uso de la IA para decisiones de empleo, valoración de crédito, recursos médicos, encarcelamiento en particular
- Los modelos de IA generativa deben ser monitoreados tanto en la etapa de entrenamiento como en el desarrollo de las salidas
En cuanto al uso interno, también recomiendo:
- Evalue el uso actual de la IA dentro de su organización
- Determine el uso más alto y mejor de la IA en su organización
- Entrenamiento para recordar al personal y proveedores que no usen datos sensibles con herramientas externas/públicas de IA
- Cree salvaguardas a través de políticas en torno al uso de la IA y revise las políticas existentes que podrían intersectar con la IA
- Revisar los acuerdos con proveedores que podrían implicar el uso de la IA
- Evalue los cambios en productos o servicios o modelos de negocio que podrían beneficiarse del uso de la IA
¿Cómo pueden las empresas abordar los posibles sesgos y discriminación que puedan surgir de modelos de IA como ChatGPT para garantizar la equidad y evitar problemas legales?
El mejor consejo que daría aquí es asegurarse de que haya una revisión humana de todas las entradas y salidas, especialmente si la salida se utilizará para funciones críticas de la organización o para publicar en el mundo exterior. Tenga especial cuidado si los algoritmos se utilizarán para tomar decisiones de contratación, promoción, aumento de sueldo o terminación. De igual manera, la evaluación crediticia, las valoraciones o cualquier otro uso potencial que pudiera afectar financieramente a una persona deben ser examinados con especial cuidado.
Asegurando el uso ético y legal de las herramientas impulsadas por IA
¿Cómo pueden las empresas asegurarse de que están utilizando herramientas impulsadas por IA como ChatGPT de manera ética y legal mientras respetan las leyes de privacidad y protección de datos del usuario?
En este ámbito, como con tecnologías anteriores como el correo electrónico, las redes sociales, la mensajería instantánea y los mensajes de texto, las organizaciones necesitan establecer salvaguardas mediante políticas, procedimientos y capacitación sobre el tema del uso del empleado. En términos de desarrollar aplicaciones de IA, también se deben implementar políticas, procedimientos y pautas para asegurar la higiene de los datos a nivel de entrada y la evaluación de los resultados a nivel de salida.
¿Existen pautas legales o éticas específicas que los desarrolladores y gerentes de productos deben seguir al integrar ChatGPT en sus aplicaciones, particularmente en dominios sensibles como la atención médica o las finanzas?
La respuesta a la pregunta 11 es un punto de partida. También hay que tener en cuenta que el uso de ChatGPT es un ejemplo del uso de una herramienta pública, lo que significa que cualquier dato introducido en ella se hará público. Por lo tanto, la mayor preocupación legal o ética con el uso de una herramienta de inteligencia artificial pública es la posible pérdida de confidencialidad o secretos comerciales. Si se incorpora una herramienta pública de inteligencia artificial en el negocio, hay que estar atentos a la protección de los secretos comerciales y la confidencialidad.
Mirando hacia el futuro
¿Qué tendencias legales se pueden esperar en las tecnologías de inteligencia artificial y chatbot, y cómo deben las organizaciones navegar estas complejidades?
Anticipo una avalancha de regulaciones en este espacio, así que por el momento manténgase al tanto de cada regulación propuesta o directriz emitida. Esto informará los puntos críticos y si su modelo de negocio es probable que tenga un objetivo en su contra en función de lo que se está regulando. En esa línea, preste mucha atención a lo que las agencias federales como la Comisión Federal de Comercio están diciendo o informando sobre el tema.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Las posibilidades creativas y transformadoras de la Inteligencia Artificial
- Aumente la productividad del agente con la integración de Salesforce para el análisis de llamadas en vivo.
- Proyecto de ley bipartidista propone un panel de expertos para abordar los riesgos y regulaciones de la inteligencia artificial.
- Abogado penalista advierte que la IA podría hacer que los tribunales duden de sus propios ojos
- LlamaIndex el marco de trabajo definitivo de LLM para indexación y recuperación
- 6 Funciones Potenciadas por AI que Transforman Gmail en una Solución de Correo Electrónico Eficiente
- 20+ Mejores Herramientas de IA Para Startups (2023)