Responsabilidad por los daños derivados de los sistemas de IA
En el mundo contemporáneo, el auge de los sistemas de Inteligencia Artificial («IA») ha demostrado una capacidad de innovación en varios sectores que era inimaginable recientemente. Sin embargo, esta rápida evolución también conlleva numerosos desafíos que deben evaluarse y debatirse. A medida que el uso de la IA se hace cada vez más común y frecuente, surgen dudas y problemas relacionados con la responsabilidad por los daños derivados del uso de estos sistemas.
Según Tim Cook, director ejecutivo de Apple: «Lo que todos debemos hacer es asegurarnos de que estamos utilizando la IA de una manera que beneficie a la sociedad, no que la deteriore»..
Este artículo explorará los aspectos legales, éticos y prácticos de este tema.
Importancia de la inteligencia artificial
Cada vez más, nuestra sociedad está inmersa en un entorno digital, donde la tecnología desempeña un papel fundamental en nuestra vida personal y profesional. En este escenario, la IA surge de manera transformadora, modificando la forma en que interactuamos con el mundo que nos rodea. La IA está presente en los asistentes virtuales de nuestro teléfonos inteligentes incluso algoritmos avanzados que impulsan las decisiones empresariales.
Ya sea mediante la automatización de las tareas rutinarias, la personalización de las recomendaciones de productos o la optimización de los procesos industriales, la IA tiene el potencial de mejorar significativamente la eficiencia y la comodidad en una variedad de áreas. A nivel personal, vemos como ejemplo la creciente integración de los asistentes virtuales y las tecnologías de reconocimiento de voz en nuestros hogares, lo que simplifica las tareas diarias y proporciona una experiencia más integrada con la tecnología.
En el contexto profesional, la IA puede desempeñar un papel importante en sectores como las finanzas, la salud, la fabricación y otros. Los sistemas avanzados de análisis de datos y aprendizaje robótico se utilizan para tomar decisiones complejas, anticipar las tendencias del mercado y optimizar las cadenas de suministro. La automatización de los procesos repetitivos libera recursos humanos para actividades más estratégicas y creativas.
Sin embargo, debido a que es una realidad muy reciente y aún sin una regulación específica, hay muchos desafíos que deben mapearse y estudiarse. Entre ellos se encuentran los relacionados con la responsabilidad legal resultante de los daños causados por fallos o decisiones inadecuadas de estos sistemas.
Responsabilidad en inteligencia artificial
La responsabilidad, en su sentido más amplio, es la obligación legal de rendir cuentas por las acciones, decisiones o impactos que resulten de una actividad específica. Es el reconocimiento de que las personas o entidades tienen obligaciones éticas y legales asociadas a sus acciones y que deben asumir sus consecuencias, ya sean positivas o negativas. La responsabilidad sirve de base para el orden social y legal, ya que garantiza el equilibrio entre la libertad de acción y la necesidad de proteger los intereses individuales y colectivos.
En los contextos en los que se utiliza la IA, la rendición de cuentas se convierte en un desafío debido a la naturaleza autónoma y compleja de los sistemas, que pueden tomar decisiones sin la intervención humana directa. La responsabilidad puede recaer en las acciones humanas relacionadas con el desarrollo y la implementación de los sistemas y en los impactos resultantes de sus acciones autónomas. Esto significa que todos los involucrados en la toma de decisiones autónomas sobre un sistema de IA, desde sus desarrolladores hasta los usuarios finales, tienen la obligación de comprender y gestionar los riesgos asociados con el uso de ese sistema.
Determinar la responsabilidad cuando un sistema de IA lleva a cabo una acción es un desafío complejo. La naturaleza descentralizada y autónoma de la IA desdibuja la línea de responsabilidad.
Riesgos y desafíos en los sistemas de IA
En primer lugar, cabe destacar los principales riesgos y desafíos que surgen con el uso frecuente de los sistemas de IA.
Sesgo algorítmico
Se manifiesta en la presencia de patrones discriminatorios en las decisiones que toman estos sistemas, lo que puede resultar en un trato desigual basado en características como la raza, el género u otros atributos. Un ejemplo de ello son los procesos de selección que lleva a cabo la IA, en los que los algoritmos pueden favorecer inadvertidamente a los candidatos de un determinado género, ampliando las disparidades existentes, como ocurrió con Amazon. Esto se debe a que la inteligencia artificial repite patrones históricos para educarse, reflejando comportamientos discriminatorios que ya existen en nuestra sociedad. La presencia de sesgos compromete la equidad y plantea cuestiones éticas y legales sobre la responsabilidad por las consecuencias de estas decisiones.
Falta de transparencia
Tenemos dificultades para comprender completamente cómo un algoritmo toma decisiones, lo que se convierte en una barrera para explicar o comprender el razonamiento detrás de las acciones del sistema. Un caso famoso que refleja este aspecto fue el de una IA creada por Facebook que creó su propio lenguaje para comunicarse con otro robot, es decir ininteligible para los humanos. Esto puede generar desconfianza por parte de los usuarios y las partes interesadas, quienes pueden dudar en confiar en los sistemas cuyo funcionamiento es poco claro. Además, la falta de transparencia puede ser un obstáculo para identificar y resolver sesgos, errores o comportamientos no deseados, lo que dificulta la implementación efectiva de correcciones y mejoras.
Toma de decisiones autónoma
Los sistemas de IA son capaces de tomar decisiones sin la intervención humana. Determinar quién es el responsable de estas decisiones y cómo se les hace responsables de los posibles errores es un gran desafío. Esto demuestra la urgente necesidad de desarrollar estructuras legales y éticas que definan claramente las responsabilidades en los escenarios de toma de decisiones autónomas.
Legislación y normativa
En este contexto, la creación de leyes y reglamentos que establezcan reglas claras para el uso responsable de la IA es fundamental. En Brasil, aún no hay una ley específica aprobada que regule el tema. Sin embargo, existen algunas normas legales que son aplicables al contexto del daño causado por la IA.
Ley General de Protección de Datos - LGPD
Es la ley federal que establece las reglas para el procesamiento de datos personales, incluidos los recopilados por un sistema de IA. La ley garantiza los derechos fundamentales, como el derecho a la privacidad, la transparencia y la no discriminación. La LGPD impone obligaciones específicas sobre la recopilación, el almacenamiento y el intercambio de datos personales, garantizando que los sistemas de IA respeten la privacidad de las personas.
Código de Protección al Consumidor - CDC
Establece normas específicas para la protección del consumidor. Estas normas se pueden aplicar para proteger a los consumidores de sistemas de IA en caso de infracción de la legislación. Los CDC también garantizan que los productos y servicios que utilizan sistemas de inteligencia artificial cumplan con los estándares de calidad y seguridad, lo que protege a los consumidores de las prácticas abusivas y los posibles daños.
Código Civil Brasileño - CCB
Establece normas de responsabilidad civil, que incluyen la responsabilidad por los daños causados por productos y servicios. Estas reglas se pueden aplicar para responsabilizar a los desarrolladores y usuarios de sistemas de IA por los daños causados. Esto garantiza la protección legal para hacer frente a las consecuencias adversas que se deriven de las decisiones algorítmicas o de los fallos de los sistemas de IA.
Constitución Federal de Brasil - CFB
Es el documento fundamental que establece los derechos fundamentales de los ciudadanos y se puede aplicar para proteger a las personas de los sistemas de IA que violan esos derechos. Sirve de guía para garantizar que el desarrollo y el uso de tecnologías respeten los principios constitucionales, incluidos la dignidad, la privacidad y la igualdad.
Ordenanza núm. 271/2020 de la CNJ
Regula el uso de la IA en el poder judicial. Esta ordenanza determina que la responsabilidad del uso de la IA en el poder judicial se comparte entre los organismos que crean y mantienen los modelos de IA y sus usuarios, lo que demuestra la gestión de los riesgos y responsabilidades asociados a la IA en el contexto judicial.
Resolución CNJ No. 332/2020
Aborda la ética, la transparencia y la gobernanza en la producción y el uso de la IA en el poder judicial. Establece que la responsabilidad del uso de la IA en el poder judicial es compartida entre los tribunales, los desarrolladores y los usuarios de los sistemas de IA. Esta resolución destaca la importancia de las normas éticas y las prácticas transparentes en la implementación de tecnologías basadas en la inteligencia artificial en el sector judicial.
Proyecto de ley núm. 2.338/2023
Sigue pendiente ante el Congreso Nacional. Ya ha sido aprobado por la Cámara de Diputados y está pendiente de votación en el Senado. Este proyecto de ley prevé el uso de la IA en Brasil y establece que la responsabilidad es compartida entre desarrolladores, operadores y usuarios. Si se aprueba, esta ley contribuirá significativamente a la creación de un marco legal actualizado para la regulación del uso de la IA en Brasil.
Por lo tanto, se puede observar que existe una tendencia a regular la responsabilidad por los daños resultantes del uso de los sistemas de IA de manera compartida, de modo que cada parte que contribuyó de alguna manera a la acción llevada a cabo por el robot tiene una parte de responsabilidad.
Responsabilidad de la IA en la práctica
Los siguientes casos ilustran la creciente complejidad y los desafíos asociados con el uso de la IA en nuestra vida diaria.
Procedimiento judicial ante el Tribunal de Justicia del Distrito Federal y Territorios - Caso núm. 0720848-94.2020.8.07.0001
En agosto de 2023, la 8ª Sala Civil del Tribunal de Justicia del Distrito Federal y Territorios ordenó a los desarrolladores de una inteligencia artificial diseñada para realizar inversiones financieras, a una firma de corretaje y a la agencia de corretaje que pagaran daños materiales a los demandantes por el monto invertido. Las transacciones financieras previstas no se llevaron a cabo, lo que supuso importantes pérdidas para los autores. La decisión se basó en el Código de Protección al Consumidor y el Código Civil y destaca la responsabilidad de los desarrolladores e intermediarios en la implementación y el funcionamiento de los sistemas de inteligencia artificial, especialmente cuando se trata de gestionar recursos financieros de terceros.
Investigación de la CNJ
Una investigación llevada a cabo por el Consejo Nacional de Justicia («CNJ») reveló que un juez federal asignado a Acre estaba utilizando ChatGPT para redactar sus sentencias, citando una jurisprudencia falsa atribuida al Tribunal Superior de Justicia («STJ»). Este caso pone de relieve el desafío de la transparencia y la ética en el uso de la IA en el entorno profesional. La situación plantea interrogantes sobre la verificación y validación de la información generada por los sistemas de IA, así como sobre la responsabilidad del operador (en este caso, el juez) en el uso correcto de la tecnología.
Jurisprudencia inexistente
En los Estados Unidos, un abogado citó una jurisprudencia inexistente durante la defensa de su cliente contra Avianca, y recibió una amonestación del juez. Este ejemplo pone de relieve los riesgos asociados a la confianza indiscriminada en los sistemas de IA y la importancia de la diligencia debida por parte de los profesionales a la hora de utilizar la información generada por esos sistemas. Además, destaca la necesidad de transparencia y rendición de cuentas en el uso de la IA en el contexto profesional, destacando la importancia de validar las fuentes de información generadas por estos sistemas antes de utilizarlos.
Los sistemas de IA ofrecen beneficios, como la automatización y la eficiencia. Sin embargo, necesitan normas claras, responsabilidad ética y transparencia en la creación, la implementación y el uso de los sistemas de IA.
Cómo pueden protegerse las empresas cuando utilizan la IA
La incorporación responsable de la Inteligencia Artificial en las operaciones comerciales requiere un análisis estratégico para mitigar los riesgos y garantizar el cumplimiento ético y legal. A continuación, destacamos algunas medidas que las empresas pueden tomar para protegerse cuando utilizan la IA.
Políticas y procedimientos sobre el uso de la IA
Es fundamental establecer políticas y procedimientos claros con respecto al uso de la IA. Los objetivos deben definirse con precisión, identificando los beneficios esperados y los riesgos asociados. Esto incluye la especificación de las medidas de seguridad que deben adoptarse, como el cifrado y el control de acceso, además de la delimitación de la responsabilidad de los involucrados, como los desarrolladores y los usuarios finales. La creación de políticas transparentes fomenta la confianza y garantiza que la implementación de la IA esté alineada con los valores y objetivos de la empresa.
Documentar el uso de la IA
Documentar el uso de la IA es una práctica esencial para garantizar la transparencia y la rendición de cuentas. Esto implica especificar los datos utilizados para entrenar y operar los algoritmos, la descripción clara de los algoritmos aplicados y la documentación de las decisiones tomadas por los sistemas de IA. La documentación facilita las auditorías y revisiones y es importante para responder a las preguntas éticas o legales que puedan surgir en relación con el uso de la IA.
Adquiera un seguro adecuado
La contratación de un seguro adecuado es una estrategia importante para proteger a las empresas contra los daños derivados de los sistemas de IA. Estos seguros pueden cubrir la responsabilidad legal, los daños financieros u otras pérdidas causadas por fallos de algoritmos, decisiones autónomas erróneas o violaciones de la privacidad. La personalización de la póliza de seguro según las necesidades específicas relacionadas con la IA garantiza una cobertura eficaz y proporciona un nivel adicional de protección financiera.
Mecanismos de supervisión y control
La implementación de mecanismos de monitoreo y control es importante para mitigar los riesgos relacionados con el uso de la IA. Esto incluye detectar fallas en los sistemas de IA, monitorear el desempeño y el comportamiento e identificar posibles casos de uso indebido o discriminación algorítmica. Los mecanismos de control permiten una intervención rápida en situaciones problemáticas y la implementación de mejoras continuas en los algoritmos para garantizar el cumplimiento y la eficacia.
Conclusión
Dado que la IA se ha establecido como una fuerza transformadora en varios ámbitos de la sociedad, desde la toma de decisiones empresariales hasta la administración de justicia, su implementación debe guiarse por los principios éticos, la responsabilidad y el cumplimiento legal.
Hoy en día, aunque todavía no existe una ley específica que regule el uso de la Inteligencia Artificial, podemos comprobar que, en el análisis de casos específicos, existe una tendencia de responsabilidad compartida entre desarrolladores, intermediarios y operadores de sistemas de Inteligencia Artificial, lo que se refleja en el proyecto de ley que aún se evaluará.