Nota técnica - LENSA

Lensa: da viralização aos riscos (in)visíveis

Paula Marques Rodrigues e Poliana Dequêch

Nos últimos dias, fotos de pessoas transformadas em avatares ultrarrealistas passaram a tomar conta do feed das redes sociais. A viralização do aplicativo Lensa ocorreu de forma rápida por conta da grande similaridade dos avatares com o usuário.  Diante de qualquer resultado artístico-tecnológico de grande qualidade como este, é necessário existir uma tecnologia avançada viabilizadora. 

O aplicativo utiliza inteligência artificial (IA) para gerar os Magic Avatars. A partir de 10 a 20 fotos reais em ângulos e expressões distintas, a IA é capaz de criar diversos avatares ultrarrealistas.

Esta IA utiliza dois modelos de aprendizagem profunda desenvolvidos recentemente: o Stable Diffusion e o DreamBooth. Em resumo, esses modelos são capazes de gerar imagens realistas com base em IA a partir de fotos e textos fornecidos pelos usuários. Seguindo uma regra padrão no mundo da IA – quanto maior a base de dados, melhor o resultado, neste caso, quanto maior a quantidade de fotos, mais realista o avatar será.

Ao utilizar qualquer tipo de aplicativo é necessário concordar com os termos de uso, documento que orienta o usuário e define responsabilidades com base no uso da plataforma, por exemplo. Nesse caso, o documento da Lensa (disponível aqui https://lensa-ai.com/terms) prevê que o usuário “concede uma licença perpétua, revogável, não exclusiva, isenta de royalties, mundial, totalmente paga, transferível e sublicenciável para usar, reproduzir, modificar, adaptar, traduzir, criar trabalhos derivados e transferir seu Conteúdo do usuário, sem qualquer compensação a você e sempre sujeito ao seu consentimento explícito adicional para tal uso quando exigido pela lei aplicável e conforme declarado em nossa Política de Privacidade (a ” Licença da Empresa “)” (tradução livre da cláusula 5 dos Termos de Uso), indicando que referidas ações somente ocorrerão com o consentimento do usuário.

O destaque é importante, pois embora revogável, a autorização ou consentimento permite que a empresa utilize livremente o que chama de conteúdo do usuário (qualquer conteúdo produzido, criado, carregado, armazenado e compartilhado, inclusive fotos e vídeos), sem qualquer atribuição de responsabilidade, eis que o Lensa não traz “garantias implícitas de adequação a uma finalidade específica”, segundo a cláusula 12 dos seus Termos de Uso, embora haja um contraponto sobre a questão na Política de Privacidade (em especial, que o consentimento para finalidades que não sejam as de uso do app será específico e coletado em separado, o que garante, em tese, uma maior transparência nesse sentido).

Outro aspecto que chama a atenção é a possibilidade de perfilamento dos usuários. Segundo a Política de Privacidade, o Lensa poderá tratar dados pessoais para vincular ou atrelar referidos dados coletados pelo app com informações que obtêm de outras pessoas a fim de compreender melhor as suas necessidades e aprimorar os serviços oferecidos.

Ademais, merece ser acompanhada de perto a aplicação das medidas de segurança adotadas pela empresa para o armazenamento temporário de fotos ou vídeos (24 horas) e respectivo procedimento de exclusão de conteúdo em nuvem.

Apesar das observações acima, os termos e políticas parecem bem construídos, num possível sinal de maturação do mercado no desenvolvimento e no uso de apps dessa natureza.

O que mais se torna evidente, contudo, são os riscos atrelados aos resultados produzidos pela ferramenta sob o aspecto discriminatório ilícito. Isso porque, ao menos de maneira empírica, tem-se observado que a ferramenta produz resultados de imagens hiperssexualizadas ou, por vezes, distorcidas a depender da raça do usuário (ex: afinar traços de pessoas negras). Alguns usuários, inclusive, têm divulgado problemas no uso do app que não reconhece deficiências físicas, o que pode significar problemas no treinamento do algoritmo. 

Embora seja muito atrativo ter um app que apresente uma ou várias versões de uma pessoa, não há como fugir da discussão sobre a distorção da auto imagem, que já é amplamente debatida ao longo dos anos e intensificada com a popularização do metaverso. Sistemas sociais virtuais que excluem minorias e a distorção da auto imagem para aceitação social são elementos que amplificam o uso de ferramentas de IA que potencializam os viéses discriminatórios ilícitos. 

Por essa razão, reforça-se a necessidade de aplicação de medidas preventivas seguras e confiáveis em ferramentas como esta desde a sua concepção: determinar padrões diversos de treinamento, seguir padrões técnicos de testagem e amostragem, além de estudar e documentar riscos atrelados ao uso ético da IA, tudo como ponto de partida.

Anterior
Anterior

A divisão informacional de Poderes e o Cadastro Base do Cidadão

Próximo
Próximo

Uso de inteligência artificial no judiciário requer planejamento