Há muita polêmica acerca da proposta pioneira da Comissão Europeia para regular a Inteligência Artificial (AI Act)¹, uma vez que o viés escolhido foi da aplicação dos riscos, consolidado desde o primeiro estudo nesse sentido, contido nas sugestões prévias do White Paper de 2020.
A crítica está centrada no desequilíbrio dessa balança de regulação, que coloca em um prato os direitos fundamentais dos usuários e a proteção de seus dados pessoais e no outro, os interesses do Poder Públicos e de empresas.
A avaliação de riscos da IA aos direitos humanos na esfera pública deveria ter um peso maior. A utilização dos sistemas de IA nos serviços públicos e processos administrativos se justifica no sentido de serem empregados como instrumentos para facilitar a tomada de decisões de gestores públicos e para agilizar os serviços prestados aos cidadãos, observando seus direitos fundamentais.
Além do Judiciário brasileiro, uma série de órgãos públicos tem sua inteligência artificial, como a Dataprev, responsável pelo processamento de todos os dados pessoais e sociais da população brasileira, que utiliza o Isaac, voltado a agilizar a análise de processos do Instituto Nacional do Seguro Social (INSS). A Datraprev, a exemplo de outras empresas públicas, vem ampliando o desenvolvimento da IA em outros serviços.
A tecnologia de IA vem se desenvolvendo em todas as áreas do conhecimento humano e a proteção legal terá dificuldade em acompanhar o ritmo de expansão dessa tecnologia e seus possíveis impactos sociais, éticos e jurídicos.
A Resolução 332/20 do Conselho Nacional de Justiça³, por exemplo, traz como conceito de inteligência artificial , um “conjunto de dados e algoritmos computacionais, concebidos a partir de modelos matemáticos, cujo objetivo é oferecer resultados inteligentes, associados ou comparáveis a determinados aspectos do pensamento, do saber ou da atividade humana“.
Podemos, também, sintetizar o conceito de IA como sendo a soma da utilização de grande massa de informações (big data) e o conjunto de instruções para realizar uma tarefa, produzindo um resultado, tudo em uma equação matemática, o algoritmo.
No Brasil, o Marco Legal do Desenvolvimento da Inteligência Artificial (PL 21/20)² foi aprovado no ano passado e, a despeito de ser considerado generalista, trouxe segurança jurídica ao consolidar fundamentos, objetivos e princípios gerais para o uso da IA no país. No art.12, o Marco Regulatório aponta que que o Poder Público deve facilitar a adoção de sistema de IA à Administração pública e na prestação de serviços públicos.
O uso da IA na esfera pública está diretamente imbricada na observância dos direitos fundamentais dos cidadãos. No capítulo sobre Direitos Fundamentais da proposta do Regulamento do Parlamento Europeu sobre IA explicita essa preocupação:
“A utilização da IA com as suas características específicas (por exemplo, opacidade, complexidade, dependência de dados, comportamento autónomo) pode afetar negativamente vários direitos fundamentais consagrados na Carta dos Direitos Fundamentais da UE . A presente proposta visa assegurar um elevado nível de proteção desses direitos fundamentais e visa abordar várias fontes de riscos através de uma abordagem baseada no risco claramente definida“.
A mitigação de riscos é importante, mas vem sendo questionada enquanto cerne da nova regulamentação europeia, principalmente diante das decisões automatizadas dos sistemas de IA. No Brasil, embora a Lei Geral de Proteção de Dados (lei 13.709/18), não discipline o uso da IA, traz no art.20 os parâmetros de seu uso:
“O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade“.
Dentre os principais riscos do desenvolvimento da IA está a violação ao direito à privacidade e proteção de dados, especialmente no caso de eleições, com o uso de robôs (social media bots) que conseguem interagir com outros usuários e influenciar nos principais debates que podem decidir um pleito presencial, sem falar das chamadas “bolhas ideológicas” por meio das quais os usuários só entraram em contato com publicações que expressem as opiniões que tenham similaridades às suas.
Esses tipos manipulações constituem um risco paras as eleições livres e a democracia
O ideal da regulação vem sendo a defesa dos direitos fundamentais. Um dos desafios dessa perspectiva está no projeto polêmico , chamado iBorderCtrl, que emprega IA para analisar microexpressões de pessoas nas fronteiras europeias, buscando detectar se o indivíduo abordado está mentindo ou não ao responder a um script definido. É a nova versão do detector de mentiras , que usa tecnologia avançada de IA, mas é um projeto considerado de pouca transparência, que vem sendo questionado.
Outro exemplo de sistema de IA considerado de risco e que visa à vigilância em massa é o SyRI do governo holandês. Este sistema de investigação algorítmica detecta suspeitas de fraude em benefícios, subsídios ou impostos, sendo que os cidadãos não são avisados do procedimento, mesmo tendo seus dados sensíveis tratados, uma vez que envolvem informações relativas a trabalho, propriedade, dívidas, aposentadoria isenções etc.
Falta, portanto, transparência , o que demandou uma campanha pública chamada ” Suspeito desde o início“. Uma das funções SyRI mais questionadas era busca detectar fraudes nos subsídios de aluguel social por meio da mensuração do uso de água corrente. Quando muito baixo, depreende-se que o beneficiado não estaria mais naquele endereço , mas continuaria usufruindo dos benefícios de forma fraudulenta.
Contudo, outros fatores podem explicar esse baixo consumo, como reaproveitamento da água da chuva. Essa ação atingia prioritariamente bairros de baixa renda, o que já constitui uma discriminação social, embora a justificativa do poder público tenha sido de melhorar a qualidade de vida dessa população.
O SyRI foi suspenso pelo Tribunal holandês de Haia por violar o art. 8 da Convenção Europeia de Direitos Humanos, que trata dos sistemas de IA de alto risco, que estabelece a observância de quatro pontos: identificação e análise dos riscos conhecidos e previsíveis, avaliação de acordo com a finalidade a que se destina o sistema de IA, avaliação de outros riscos com base na análise de dados recolhidos no sistema e adoção de medidas de gestão de risco, com base nos efeitos e possíveis interações.
No uso da tecnologia de IA na área pública, um ponto fundamental é aplicar uma legislação transparente , assegurando a privacidade dos dados pessoais dos cidadãos e que, ao mesmo tempo, responda se observa os marcos de direitos humanos que propiciam as salvaguardas necessárias.
A questão da vigilância em massa estatal com uso da IA teve no Reino Unido um exemplo bem claro , com a criação em 2016 da Lei de Poderes de Investigação, que admitia a coleta de dados em massa, que vieram a público pela denúncia de Edward Snowden, que apresentou documentos sobre a agência de inteligência britânica GCHQ, que utiliza programa de espionagem para armazenamento de dados em massa de todo tráfego da internet e repositório de mis de 1 trilhão de eventos (e-mails, mensagens instantâneas, mídia social etc.).
Contudo, em 2018, o Tribunal Europeu de Direitos Humanos decidiu que esse programa de interceptação de massa violava a Convenção Europeia de Direito Humanos e é considerado o primeiro julgamento sobre a matéria que colocou um freio ético no uso da IA na esfera pública.
No Regulamento do Parlamento Europeu , o poder público e empresa parceiras também não estarão escudados pela caixa preta da “segurança nacional” para evitar comunicar incidentes no âmbito da IA.
Segundo o art. 62, os fornecedores de sistemas de IA de alto risco ( identificação .biométrica, gerenciamento e operação de infraestrutura crítica; emprego, gestão de obras e acesso ao trabalho autônomo; acesso a serviços e benefícios públicos; migração, asilo e gestão de controle de fronteiras; administração da justiça etc.) devem comunicar as autoridades de fiscalização qualquer incidente ou avaria que venha a violar direitos fundamentais.
A notificação deve ser feita tão logo se estabeleça o nexo de causalidade entre o sistema de IA e o incidente ou avaria. Os arts 22 e 23 do Regulamento enfatizam o dever de informação e cooperação com as autoridades. Como já afirmava o Conselho de Direitos Humano da ONU em 2016, ” os direitos humanos que as pessoas têm off-line devem também ser protegidos on-line.4
—
1 Proposta do Regulamento do Parlamento Europeu sobre IA. Disponível aqui
2 Disponível aqui.
3 Disponível aqui.
4 Disponível aqui.
—
Fabio Rivelli é advogado, sócio do escritório Lee, Brock, Camargo Advogados (LBCA). Master in Business Administration pelo Insper. Mestrando em Direito – núcleo de Direitos Humanos pela PUC/SP. Especialista em Gestão de Contencioso de Volume pela GVLaw, ranqueado pela Leaders League – 2021 em Contencioso Trabalhista de Volume, na categoria “Altamente Recomendado”.
Parabéns Fábio Rivelli, pela bela explanação! Assunto bastante debatido nos tempos atuais…tomara q o emprego da IA seja para o bem da humanidade e não para fomentar a guerra entre as nações.