Lawgorithm e USP desenvolvem plataforma para esclarecer dúvidas sobre Covid-19

O Instituto (sic) Lawgorithm, que pesquisa a aplicação da Inteligência Artificial no Direito, firmou uma parceria com a legaltech Juristec e a Faculdade de Direito da USP para desenvolver uma plataforma com informações sobre a Covid-19 e as novidades legislativas relacionadas ao tema. A iniciativa resultou na criação de um chatbot chamado Yuki-Saúde, que foi montado com uma base de conhecimento para esclarecer questões médicas e de biossegurança, além de fornecer informações sobre as diversas leis emergenciais decretadas no Brasil desde o início da pandemia.

Juliano Maranhão, advogado, fundador do Instituto Lawgorithm e professor da USP, explicou que a ferramenta visa combater a desinformação ao oferecer informações de fontes oficiais e de qualidade sobre questões médicas e jurídicas. "Um dos problemas no combate à pandemia é a desinformação. A ferramenta propiciará informações de fontes oficiais e de qualidade sobre questões médicas. Houve também muitas mudanças trazidas por leis emergenciais, que afetam vários direitos dos cidadãos, de modo que a ferramenta poderá ser uma fonte segura e de fácil acesso", destacou Maranhão.

As informações estão disponíveis no site https://covid19.yukiplus.com.br. O primeiro protótipo da plataforma foi desenvolvido pela Juristec+ e o sistema continua em desenvolvimento e ampliação em conjunto com o Instituto Lawgorithm, contando com o apoio dos professores da Faculdade de Direito da USP. Para acessar as informações, basta que o usuário se logue com uma conta Gmail ou pelo Facebook. Em uma fase futura, está prevista uma versão em aplicativo para celulares, que contará com comando de voz.

A plataforma utiliza inteligência artificial para interpretar as perguntas e buscar as informações correspondentes na base de conhecimento.

Originalmente publicado em Blog do Servidor - Correio Braziliense.

A Resolução diferencia três tipos de uso, com consequências distintas.

Primeiro, há os usos que podemos chamar de “irrelevantes”, previstos no art. 9ºB, par. 2º, como ajustes para melhorar a qualidade de imagem e som, inclusão de elementos gráficos como vinhetas e logos, ou montagens corriqueiras para compor fotografias de candidatos e apoiadores. Esses elementos, já comuns em campanhas e produção audiovisual, podem ter resultados melhores e redução de custos com o uso de IA. Para esses usos, não se impõe qualquer obrigação.

A segunda categoria, que pode ser chamada de “usos autorizados”, envolve a produção de conteúdo sintético com IA para criar, substituir, omitir, mesclar, alterar a velocidade ou sobrepor imagens ou sons. Esses elementos são capazes de ajustar o conteúdo ou marcar com identidade visual, compondo novas formas de produzir e manipular sinteticamente textos, áudios e vídeos. Para esses usos, previstos no art. 9-B, caput, impõem-se obrigações de transparência para informar claramente o eleitor sobre o emprego de IA.

A terceira categoria, que podemos chamar de “usos proibidos”, refere-se ao conteúdo sintético gerado por IA para criar, substituir ou alterar a imagem ou voz de uma pessoa viva, falecida ou fictícia, seja para prejudicar ou favorecer uma candidatura. Esses usos são previstos no art. 9º-C, par. 1º.

A distinção entre essas categorias não está propriamente na ação, mas na intenção e nos efeitos, conforme previsto no art. 9º-C, caput: apenas são proibidas manipulações por IA quando objetivarem difundir fatos notoriamente inverídicos ou descontextualizados e que tenham o potencial de causar danos ao equilíbrio do pleito. Presentes esses elementos, a manipulação é proibida, seja para prejudicar um candidato oponente, seja para favorecer o próprio candidato.

A jurisprudência do TSE tem sido bastante cautelosa, buscando preservar a liberdade dos candidatos na veiculação de ideias e formas de expressão. Veda apenas conteúdos inverídicos e ofensivos à honra, mas preserva a legitimidade do uso satírico e humorístico, em nome da liberdade de expressão, como já corroborado pelo Supremo Tribunal Federal. Não foi objetivo da Resolução do TSE mudar esse entendimento quando se estiver diante de manipulações envolvendo IA.

Resta a hipótese de uso consentido para manipular a imagem ou áudio da própria candidata ou candidato. Nesse espectro de manipulações possíveis da imagem e voz para propaganda positiva própria ou propaganda negativa em relação a terceiros, a resposta não é simples e depende de análise contextual. Em última análise, entra em jogo a avaliação da honestidade da manipulação. O que a IA traz de novo é a perfeição do resultado. A questão é saber se essa perfeição foi usada especificamente para enganar e se o equívoco induzido tem potencial para mudar intenções de voto.

Originalmente publicado em JOTA.

Anterior
Anterior

Marco da Inteligência Artificial e responsabilidade civil

Próximo
Próximo

Ambiente virtual muda profundamente o Direito