Marco da Inteligência Artificial e responsabilidade civil

Juliano Maranhão, Juliana Abrusio, Ricardo Campos

O Marco Legal da Inteligência Artificial, aprovado na Câmara dos Deputados em 2021, na forma do PL 21/20, tramitará em conjunto com outras duas propostas sobre o tema no Senado Federal (PL 5051/19 e PL 872/21). Uma das polêmicas mais relevantes da futura legislação é a responsabilidade civil, a qual, na versão do artigo 6º, inciso VI, do PL 21/20, estabelece a responsabilidade subjetiva como solução padrão para danos causados por uma atividade virtual ou física por um equipamento ou processo conduzido por sistema informático que incorpore metodologias de inteligência artificial.

A proposta harmoniza-se com o ordenamento brasileiro, que se pauta pela responsabilidade civil subjetiva como padrão e adota a responsabilidade objetiva para atividades que envolvam risco inerente ou nas hipóteses de relação de consumo onde há assimetria entre fornecedor e consumidor. Também segue propostas internacionais, que se baseiam na responsabilidade subjetiva em geral e atribuem responsabilidade objetiva apenas para sistemas de IA cujo emprego envolva atividade de alto risco, como, por exemplo, a proposta do Parlamento Europeu de outubro de 2020, que propõe a criação de um regime de responsabilidade civil para a inteligência artificial.

A inteligência artificial é uma tecnologia baseada em diferentes metodologias de aprendizado de máquina e representação de conhecimento humano que traz enorme potencial de benefícios econômicos, sociais e ao conhecimento científico, sendo possível mapear seus riscos. O ponto chave da atuação jurídica deve se voltar à modelação de níveis escalonados de mapeamento e criação de salvaguardas proporcionais para a mitigação de riscos a depender da faixa de risco da aplicação. Também o regime geral de responsabilidade civil deve refletir esse escalonamento com a finalidade de, ao mesmo tempo, fomentar a inovação e proteger direitos individuais de terceiros.

Grande parte das aplicações de IA tem um risco baixo ou médio de causar danos físicos ou psicológicos, impactos a direitos fundamentais do cidadão ou danos ao meio ambiente. Na grande maioria dos casos, os danos ocorridos são resultado de intervenção humana no desenvolvimento da IA, no seu emprego ou em seu funcionamento. Embora seja difícil apontar a ação específica que causou o dano, considerando a multiplicidade de ações e agentes envolvidos, é possível indicar aqueles responsáveis pelo controle das decisões e do risco em diferentes etapas da cadeia de produção, desde a concepção, desenvolvimento, manutenção e monitoramento de um sistema.

Originalmente publicado em Consultor Jurídico.

Anterior
Anterior

Marco Civil da IA: colocando as cartas na mesa

Próximo
Próximo

Lawgorithm e USP desenvolvem plataforma para esclarecer dúvidas sobre Covid-19