A Inteligência Artificial está se integrando em quase todas as atividades econômicas, transformando aspectos fundamentais de setores essenciais, e sua gestão para o usuário está sendo normalizada, mas ela conta com suporte regulamentador adequado para proteger os usuários dos danos que ela possa causar?
Virginia Martinez, sócia da Bird&Bird, nos informa os pontos centrais desse urgente desafio regulatório:
O uso da Inteligência Artificial (IA) é um recurso cada vez mais utilizado em diferentes processos de produção e serviços. Na verdade, em um momento em que conceitos como chatbots, ChatGPT ou tradução automática passam a ser usados com frequência, podemos falar sobre a “idade de ouro” da IA, que conquista novos setores e usos todos os dias.
Não há dúvida de que o uso da IA, como todas as tecnologias, tem várias vantagens:
- Maior eficiência e produtividade nos negócios (por exemplo, liberando os trabalhadores de tarefas repetitivas).
- Redução significativa de erros humanos e suas consequências negativas.
- Ajuda as empresas na tomada de decisões com o gerenciamento avançado de grandes quantidades de dados.
- Personalização da experiência do cliente em determinados serviços.
- Automatização de processos específicos, reduzindo os custos de produção.
No entanto, como acontece com todas as novas tecnologias, essas vantagens trazem uma série de riscos e desvantagens. Por exemplo:
- O alto custo de seu desenvolvimento (pelo menos na fase inicial de implantação).
- O risco de violação de direitos (direitos de propriedade intelectual, direitos de imagem, privacidade, etc.).
- O risco de a IA ser usada para fins maliciosos.
A crescente aplicação da IA em todos os setores, inclusive em nossa vida cotidiana, leva-nos a fazer as seguintes perguntas: Os sistemas ou máquinas que usam IA são autônomos o suficiente para discernir o que está certo e o que está errado, o que é legal e o que é ilegal? Do ponto de vista jurídico, pode ser legalmente responsabilizada por suas ações e danos que possa causar a terceiros? Em caso negativo, quem tem a responsabilidade real? As regras e princípios atuais são adequados?
Na opinião da Bird&Bird, as soluções previstas nos sistemas europeus de responsabilidade civil (contratual ou extracontratual) e nos regulamentos específicos sobre responsabilidade por produtos defeituosos não estão em conformidade com a natureza dessa nova tecnologia e, portanto, são insuficientes ou inadequadas para proteger as vítimas do seu uso.
Desafios de uma regulamentação eficaz
A principal dificuldade é que as máquinas ou sistemas que usam IA são caracterizados por seu alto grau de autonomia ou capacidade de autoaprendizagem. Essa condição implica a possibilidade de tomar decisões não programadas e, portanto, não previsíveis antecipadamente pelo fabricante, proprietário ou usuário. Nesses casos, se um dano ocorrer a terceiros, o requisito de “culpa ou negligência”, orçamento básico em qualquer regime de responsabilidade civil não se aplicaria.
Por outro lado, também pode não haver “defeito”, propriamente dito, no projeto ou fabricação do dispositivo, conforme exigido pelas normas existentes de responsabilidade por produtos defeituosos. E mesmo que haja deficiência, a própria complexidade dos algoritmos ou dados técnicos utilizados na fabricação pode tornar praticamente impossível determinar a origem da falha e comprová-la perante os tribunais.
O contexto da União Europeia
Nesse contexto, a UE, com o objetivo de promover a adoção da IA de forma segura e confiável e adaptar os regimes de responsabilidade europeus atuais ao seu uso, apresentou duas propostas legislativas no final de 2022.
- Em primeiro lugar, a Proposta de Diretriz sobre Responsabilidade de IA visa a garantir que os indivíduos afetados obtenham uma proteção de responsabilidade civil equivalente à dos danos causados por outros produtos. Essa Diretriz visa a atenuar o black box effect, ou a dificuldade que enfrentam os prejudicados para provar o ato ilícito, bem como a identificação do causador do dano, que em muitos casos deixa a pessoa em causa indefesa. Diante dessa situação, a Proposta de Diretriz estabelece uma série de medidas que favorecem a obtenção da prova e a identificação das pessoas potencialmente responsáveis. Além disso, introduz a chamada “presunção de causalidade”, que pretende facilitar a prova do vínculo causal entre o dano e o fato culposo gerado pela IA. Essa Diretriz aplica-se a ações civis em que sejam exercidas, com base em responsabilidade por culpa ou negligência, reclamações de danos e prejuízos causados pela IA. A Proposta está sendo discutida no Conselho.
- Em segundo lugar, a Comissão da União Europeia apresentou a Proposta de Revisão da Diretriz 85/374/CEE relativa à responsabilidade por danos causados por produtos defeituosos, uma vez que a redação atual da Diretriz não fornece clareza suficiente sobre como determinar a responsabilidade por defeitos em atualizações de software, algoritmos de aprendizagem automática ou serviços digitais essenciais para o funcionamento de um produto. A Proposta já foi aprovada pelo Parlamento em 12 de março de 2024 e está pendente de aprovação formal pelo Conselho.
Essas duas iniciativas legislativas juntam-se ao Regulamento sobre IA, talvez mais conhecido, aprovado pelo Conselho da União Europeia em 21 de maio de 2024, que visa a garantir que os sistemas de Inteligência Artificial inseridos no mercado europeu e utilizados na UE sejam seguros e respeitem os direitos fundamentais. Sua abordagem é baseada no risco que pode resultar do uso de sistemas de IA, estabelecendo requisitos e obrigações para vários participantes da cadeia de valor.
É evidente, portanto, que a União Europeia enfrentou a problemática sobre a responsabilidade que pode derivar do uso da IA. O problema é que, como ocorre historicamente, a legislação geralmente fica um passo atrás da realidade. Assim, até que as regras comunitárias sejam plenamente aplicáveis (e, no caso das Diretrizes, sejam transpostas para os sistemas jurídicos nacionais), será necessário recorrer aos instrumentos disponíveis nos sistemas jurídicos atuais para proteger os usuários dos danos que possam ser causados pelo uso da IA.
Colaborou com este artigo…
Virginia Martinez é sócia do departamento de Seguros e Resseguros da Bird & Bird no escritório de Madri. Ela tem mais de quinze anos de experiência em assuntos regulatórios, comerciais e processuais de seguros e resseguros. Participou do projeto de estruturas complexas de distribuição de seguros, no projeto e negociação de todos os tipos de contratos no setor de seguros e na preparação e apresentação de expedientes administrativos na Diretoria Geral de Seguros e Fundos de Aposentadoria.
Durante sua trajetória como advogada, participou de disputas e procedimentos de responsabilidade civil, sinistros industriais, responsabilidade de produtos defeituosos, sinistros de construção e resolução de disputas de cobertura.