Clicksign

Ver todos

Responsabilidade por danos decorrentes de sistemas de IA

No mundo contemporâneo, a ascensão dos sistemas de Inteligência Artificial (“IA”) vem demonstrando uma capacidade de inovação em diversos setores que há muito pouco tempo era inimaginável. No entanto, essa rápida evolução também traz inúmeros desafios que precisam ser avaliados e discutidos. À medida que o uso da IA se torna cada vez mais comum e frequente, surgem dúvidas e questões relacionadas à responsabilidade por danos decorrentes do uso desses sistemas. 

De acordo com Tim Cook, CEO da Apple: “O que todos devemos fazer é nos certificar de que estamos usando a IA de uma maneira que beneficie a sociedade, e não que a deteriore”.

Este artigo vai explorar aspectos legais, éticos e práticos desta temática.

Importância da Inteligência Artificial

Cada vez mais, a nossa sociedade encontra-se imersa em um ambiente digital, onde a tecnologia desempenha um papel fundamental nas nossas vidas pessoais  e profissionais. Neste cenário, a IA surge de forma transformadora, modificando a maneira como interagimos com o mundo ao nosso redor. A IA se faz presente em assistente virtuais em nossos smartphones até algoritmos avançados que impulsionam decisões empresariais.

Seja por meio de automação de tarefas rotineiras, personalização de recomendações de produtos ou otimização de processos industriais, a IA tem o potencial de aprimorar significativamente a eficiência e a conveniência em diversas áreas. No âmbito pessoal, vemos como exemplo a crescente integração de assistentes virtuais e tecnologias de reconhecimento de voz dentro das nossas casas, simplificando tarefas quotidianas e proporcionando uma experiência mais integrada com a tecnologia.

No contexto profissional, a IA pode desempenhar um papel importante em setores como finanças, saúde, manufatura, dentre outros. Sistemas avançados de análise de dados e aprendizado de robôs estão sendo utilizados para tomar decisões complexas, antecipar tendências de mercado e otimizar cadeias de suprimentos. A automação de processos repetitivos libera recursos humanos para atividades mais estratégicas e criativas.

No entanto, por ser uma realidade muito recente e ainda sem regulamentação específica, existem muitos desafios que precisam ser mapeados e estudados. Dentre eles, estão aqueles relacionados à responsabilidade legal decorrente de danos causados por falhas ou decisões inadequadas desses sistemas.

Responsabilidade em Inteligência Artificial

A responsabilidade, em seu sentido mais amplo, é a obrigação legal de prestar contas por ações, decisões ou impactos resultantes de uma atividade específica. Trata-se do reconhecimento de que indivíduos ou entidades possuem deveres éticos e legais associados às suas ações e que devem arcar com as consequências delas, sejam positivas ou negativas. A responsabilidade serve como um alicerce para a ordem social e legal, garantindo equilíbrio entre a liberdade de ação e a necessidade de proteger interesses individuais e coletivos.

Em contextos onde há o uso de uma IA, a responsabilização se torna um desafio devido à natureza autônoma e complexa dos sistemas, que podem tomar decisões sem intervenção humana direta. A responsabilização pode recair em ações humanas relacionadas ao desenvolvimento e implementação dos sistemas e impactos decorrentes de suas ações autônomas. Isso significa que todos os envolvidos em uma decisão autônoma de um sistema de IA, desde seus desenvolvedores até os usuários finais, possuem a obrigação de compreender e gerenciar os riscos associados ao uso desse sistema.

Determinar a responsabilidade quando uma ação é praticada por um sistema de IA é um desafio complexo. A natureza descentralizada e autônoma da IA torna sombreada a linha de responsabilidade. 

Riscos e desafios em sistemas de IA

Primeiramente, cabe destacar quais são os principais riscos e desafios que surgem com o uso frequente de sistemas de IA.

Viés algorítmico

Se manifesta na presença de padrões discriminatórios nas decisões tomadas por esses sistemas, o que pode resultar em tratamento desigual com base em características como raça, gênero ou outros atributos. Um exemplo disso são processos seletivos realizados por IA, onde algoritmos podem inadvertidamente favorecer candidatos de determinado gênero, ampliando disparidades já existentes, como aconteceu com a Amazon. Isso ocorre porque as inteligências artificiais repetem padrões históricos para se educar, refletindo comportamentos discriminatórios que já existem na nossa sociedade. A presença de viéses compromete a equidade e levanta questões éticas e legais sobre a responsabilidade pelas consequências dessas decisões.

Falta de transparência

Temos dificuldade de compreender completamente como um algoritmo toma decisões, o que se torna uma barreira para explicar ou entender o raciocínio por trás das ações do sistema. Um caso famoso que reflete esse aspecto foi uma IA criada pelo Facebook que criou a própria linguagem para comunicação com outro robô que é ininteligível para humanos. Isso pode gerar a desconfiança de usuários e stakeholders, que podem hesitar em confiar em sistemas cujo funcionamento é obscuro. Além disso, a falta de transparência pode ser um obstáculo para identificar e resolver vieses, erros ou comportamentos indesejados, dificultando a implementação eficaz de correções e melhorias.

Tomada de decisões autônomas

Os sistemas de IA possuem capacidade de realizar escolhas sem intervenção humana. Determinar quem é o responsável por essas decisões e como prestam contas por possíveis erros é um grande desafio. Isso demonstra a urgente necessidade de desenvolver estruturas legais e éticas que definem claramente as responsabilidades em cenários de tomada de decisão autônomas.

Legislação e normas

Neste contexto, a criação de legislação e normas que estabeleçam regras claras para o uso responsável da IA é fundamental. No Brasil, ainda não existe uma lei específica aprovada regulamentando a questão. No entanto, existem algumas normas legais que são aplicáveis ao contexto de danos causados por IA.

Lei Geral de Proteção de Dados – LGPD

É a lei federal que estabelece regras para o tratamento de dados pessoais, inclusive aqueles coletados por um sistema de IA. A lei assegura direitos fundamentais, como o direito à privacidade, transparência e não discriminação. A LGPD impõe obrigações específicas sobre a coleta, armazenamento e compartilhamento de dados pessoais, garantindo que os sistemas de IA respeitem a privacidade dos indivíduos.

Código de Defesa do Consumidor – CDC

Estabelece regras específicas para a proteção do consumidor. Essas regras podem ser aplicadas para proteger os consumidores de sistemas de IA em caso de violação à legislação. O CDC também garante que produtos e serviços que usam sistemas de IA atendam aos padrões de qualidade e segurança, protegendo os consumidores de práticas abusivas e danos potenciais.

Código Civil Brasileiro – CCB

Estabelece regras de responsabilidade civil, o que inclui a responsabilidade por danos causados por produtos e serviços. Essas regras podem ser aplicadas para responsabilizar desenvolvedores e usuários de sistemas de IA por danos causados. Isso garante uma proteção legal para lidar com consequências adversas resultantes de decisões algorítmicas ou falhas de sistemas de IA.

Constituição Federal do Brasil – CFB

É o documento fundamental que estabelece os direitos fundamentais dos cidadãos e pode ser aplicada para proteger indivíduos de sistemas de IA que violem esses direitos. Ela serve como um norte para garantir que o desenvolvimento e uso de tecnologias respeitem os princípios constitucionais, incluindo dignidade, privacidade e igualdade.

Portaria nº 271/2020 do CNJ

Regulamenta o uso da IA no Poder Judiciário. Essa portaria determina que a responsabilidade pelo uso de IA no Poder Judiciário é compartilhada entre os órgãos criadores e mantenedores dos modelos de IA e seus usuários, o que demonstra a gestão de riscos e responsabilidades associadas à IA no contexto judicial.

Resolução nº 332/2020 do CNJ

Aborda a ética, transparência e governança na produção e uso de IA no Poder Judiciário. Estabelece que a responsabilização pelo uso de IA no Poder Judiciário é compartilhada entre Tribunais, desenvolvedores e usuários dos sistemas de IA. Essa resolução destaca a importância de padrões éticos e práticas transparentes na implementação de tecnologias baseadas em IA no setor judiciário.

Projeto de Lei nº 2.338/2023

Ainda está em tramitação no Congresso Nacional. Já foi aprovado pela Câmara dos Deputados e aguarda votação no Senado. Esse PL dispõe sobre o uso da IA no Brasil e estabelece que a responsabilização é compartilhada entre desenvolvedores, operadores e usuários. Caso aprovada, essa lei contribuirá significativamente para a criação de um marco legal atualizado para a regulamentação do uso da IA no Brasil.

Percebe-se, portanto, que existe uma tendência em regulamentar a responsabilidade por danos decorrentes do uso de sistemas de IA de forma compartilhada, de maneira que cada parte que contribuiu de alguma forma para a ação que foi praticada pelo robô tenha uma parcela de responsabilidade.

Responsabilidade da IA na prática

Os casos a seguir ilustram a crescente complexidade e desafios associados ao uso da IA no nosso quotidiano.

Processo Judicial no Tribunal de Justiça do Distrito Federal e Territórios – Processo nº 0720848-94.2020.8.07.0001

Em agosto de 2023, a 8ª Turma Cível do Tribunal de Justiça do Distrito Federal e Territórios condenou os desenvolvedores de uma Inteligência Artificial projetada para realizar investimentos financeiros, uma corretora e a agência de intermediação a pagar danos materiais aos autores da ação no valor investido. As operações financeiras planejadas não foram concretizadas, resultando em prejuízos significativos para os autores. A decisão foi fundamentada pelo Código de Defesa do Consumidor e o Código Civil e destaca a responsabilidade dos desenvolvedores e intermediários na implementação e operação de sistemas de IA, especialmente quando se trata de lidar com recursos financeiros de terceiros.

Investigação CNJ

Uma investigação conduzida pelo Conselho Nacional de Justiça (“CNJ”) revelou que um juiz federal lotado no Acre estava usando o ChatGPT para elaborar suas sentenças, citando jurisprudência falsa atribuída ao Superior Tribunal de Justiça (“STJ”). Esse caso evidencia o desafio da transparência e ética na utilização de IA no meio profissional. A situação levanta questões sobre a verificação e validação de informações geradas por sistemas de IA, bem como sobre a responsabilidade do operador (neste caso, o juiz) na utilização correta da tecnologia.

Jurisprudência inexistente

Nos Estados Unidos, um advogado citou jurisprudência inexistente durante a defesa do seu cliente contra a Avianca, recebendo uma repreensão do juiz. Esse exemplo destaca os riscos associados à confiança indiscriminada em sistemas de IA e a importância da devida diligência por parte de profissionais ao utilizar as informações geradas por esses sistemas. Além disso, ressalta a necessidade de transparência e responsabilidade na utilização de IA no contexto profissional, destacando a importância de validar as fontes de informação gerada por esses sistemas antes de utilizá-las.

Os sistemas de IA oferecem benefícios, como a automação e eficiência. Porém, precisam de regulamentações claras, responsabilidade ética e transparência na criação, implementação e utilização de sistemas de IA.

Como as empresas podem se proteger ao usar a IA

A incorporação responsável de Inteligência Artificial em operações empresariais requer uma análise estratégica para mitigar riscos e garantir conformidade ética e legal. Abaixo, destacamos algumas medidas que empresas podem adotar para se proteger ao usar IA.

Políticas e Procedimentos sobre o Uso de IA

Estabelecer políticas e procedimentos claros sobre o uso de IA é fundamental. Os objetivos devem ser definidos de maneira precisa, identificando os benefícios esperados e os riscos associados. Isso inclui a especificação de medidas de segurança a serem adotadas, como criptografia e controle de acessos, além da delimitação da responsabilidade dos envolvidos, como desenvolvedores e usuários finais. A criação de políticas transparentes fomenta a confiança e assegura que a implementação da IA esteja alinhada com os valores e objetivos da empresa.

Documentar o uso de IA

Documentar o uso da IA é uma prática essencial para garantir transparência e responsabilidade. Isso envolve a especificação dos dados utilizados para treinamento e operação dos algoritmos, a descrição clara dos algoritmos aplicados e a documentação das decisões tomadas pelos sistemas de IA. A documentação facilita auditorias e revisões e é importante para responder questionamentos éticos ou legais que possam surgir em relação ao uso da IA.

Contratar seguros adequados

A contratação de seguros adequados é uma estratégia importante para proteger as empresas contra danos decorrentes de sistemas de IA. Esses seguros podem cobrir responsabilidades legais, danos financeiros ou outros prejuízos causados por falhas em algoritmos, decisões autônomas equivocadas ou violações de privacidade. A personalização da apólice de seguro conforme as necessidades específicas relacionadas à IA garante uma cobertura eficaz e proporciona uma camada adicional de proteção financeira.

Mecanismos de monitoramento e controle

Implementar mecanismos de monitoramento e controle é importante para mitigar riscos relacionados ao uso de IA. Isso inclui a detecção de falhas nos sistemas de IA, monitoramento de desempenho e comportamento e a identificação de possíveis casos de uso indevido ou discriminação algorítmica. Mecanismos de controle permitem a intervenção rápida em situações problemáticas e a implementação de melhorias contínuas nos algoritmos para garantir conformidade e eficácia.

Conclusão

À medida que a IA se estabelece como uma força transformadora em diversas esferas da sociedade, desde tomadas de decisões empresariais até a administração da Justiça, é necessário que a sua implementação seja guiada por princípios éticos, responsabilidade e conformidade legal.
Hoje em dia, embora ainda não exista uma lei específica regulamentando o uso da Inteligência Artificial, podemos verificar que, na análise de casos concretos, vai surgindo a tendência de uma responsabilidade compartilhada entre os desenvolvedores, os intermediários e os operadores dos sistemas de Inteligência Artificial, que reflete no PL que ainda será avaliado.

Facebook
Twitter
LinkedIn

Contato com comercial

Fale com nossos especialistas e descubra como simplificar seus processos.

|

Pronto para começar? Experimente grátis.