SÁBADO, 26-04-2022 por Paulo Lona, Secretário-Geral do SMMP

A União Europeia pretende regular a utilização da inteligência artificial quer por parte dos Estados que a integram quer pelas empresas europeias, visando salvaguardar determinados valores como a privacidade, a transparência e a prestação de contas.

“A Inteligência Artificial e a Ética: Não perguntes o que os computadores podem fazer, pergunta o que eles devem fazer” – Tools and Weapons – The Promise and the peril of the digital Age – Brad Smith.

Cada vez se fala mais acerca da utilização da inteligência artificial no domínio da justiça e dos potenciais benefícios que daí podem resultar para a administração da justiça e para os cidadãos.

É necessário, em primeiro lugar, saber do que estamos exatamente a falar quando falamos de inteligência artificial.

Só depois de saber de que falamos podemos transpor esse conceito para o domínio da justiça e avaliar os riscos e/ou benefícios inerentes.

Estaremos a falar da capacidade de aprender e tomar decisões com base num processo de aprendizagem autónomo/livre de intervenção humana?

Não existe uma definição universal do que seja a Inteligência artificial, mas, de acordo com Dave Heiner (Vice-presidente da Microsoft, onde chefia o departamento jurídico), podemos considerar que “é um sistema informático que pode aprender com a experiência, discernindo padrões nos dados que lhe são fornecidos e assim tomar decisões”.

Está sempre envolvida na inteligência artificial a utilização de grandes quantidades de dados que alimentam a capacidade de um computador tomar decisões.

A capacidade de processamento e armazenamento de informação dos computadores evoluiu muito nos últimos anos abrindo a porta para soluções de Inteligência artificial cada vez mais sofisticadas.

Duas características que definem os seres humanos são apontadas como essenciais na inteligência artificial: a percepção humana e a cognição humana.

A percepção humana, isto é, a capacidade dos computadores para perceberem o que está a acontecer no mundo, da forma como os humanos fazem através da visão e do som.

A cognição humana, isto é, a capacidade dos computadores para raciocinar e aprender.

Contudo, antes do mais, é imprescindível fazer o ponto da situação em que estamos atualmente em Portugal na área da justiça para avaliar da utilidade/viabilidade de soluções de software de inteligência artificial. Depois, concluindo-se pela sua utilidade/viabilidade, importa igualmente atentar nos aspetos éticos envolvidos e riscos.

Os Tribunais e os serviços do Ministério Público em Portugal continuam, muitas vezes, com computadores desatualizados, redes lentas e soluções informáticas que comprometem na segurança, rapidez, eficácia e incremento de produtividade (característica que lhes deveriam estar associadas).  Estamos muito longe do que seria desejável.

Caracterizado sumariamente o panorama português voltemos à inteligência artificial.

A União Europeia pretende regular a utilização da inteligência artificial quer por parte dos Estados que a integram quer pelas empresas europeias, visando salvaguardar determinados valores como a privacidade, a transparência e a prestação de contas.

Ao mesmo tempo que incentiva o desenvolvimento de soluções de inteligência artificial a União Europeia pretende que exista uma avaliação de risco dessas mesmas soluções/utilizações, que imporá limitações e até proibições no uso de determinadas tecnologias

A questão da transparência implica assegurar que toda a informação utilizada e o modo como os sistemas de Inteligência artificial tomam decisões seja conhecida do público (conhecimento dos algoritmos usados).

A questão ética da accountability, isto é, a necessidade de assegurar que no futuro os computadores permanecem responsáveis perante as pessoas e as pessoas que projetam as máquinas permanecem responsáveis perante todos os outros.

As decisões que têm impacto na vida das pessoas e seus direitos devem permanecer sempre sujeitas a uma revisão e controlo humano por pessoas que estejam treinadas/habilitadas a avaliar essas decisões tomadas pela inteligência artificial.

Por fim, a questão da governance, isto é, todas as instituições que desenvolvem soluções de inteligência artificial precisam de adotar os chamados compliance systems, bem como programas de formação e acompanhamento.

A Comissão Europeia propõe regras para garantir que os sistemas de inteligência artificial utilizados na União Europeia sejam seguros, transparentes, éticos, imparciais e sob controlo humano e que classifiquem tais sistemas em função do risco que lhes está inerente.

Classifica esse risco em 4 categorias distintas: inaceitável, elevado, limitado e mínimo.

Na categoria de risco elevado enquadra, além do mais, a administração da justiça, referindo que qualquer sistema de inteligência artificial nesta área deve ser antecipadamente (antes de ser aplicado) e cuidadosamente avaliado, bem como durante todo o seu ciclo de vida.

O Conselho da União Europeia nas suas recomendações, contidas nas “Conclusões do Conselho «Acesso à justiça – aproveitar as oportunidades da digitalização» (2020/C 342 I/01)”, refere a este respeito da Inteligência artificial que:

“…a utilização de ferramentas de inteligência artificial encerra o potencial de melhorar o funcionamento dos sistemas judiciários em benefício dos cidadãos e das empresas, prestando assistência aos juízes e aos agentes de justiça nas suas atividades, acelerando os processos judiciais e ajudando a reforçar a comparabilidade, a coerência e, em última análise, a qualidade das decisões judiciais”, mas sublinha que “a utilização de ferramentas de inteligência artificial não pode interferir com o poder de decisão dos juízes nem com a independência do poder judicial. As decisões judiciais têm de ser sempre tomadas por pessoas e não podem ser delegadas numa ferramenta de inteligência artificial”.

Por fim, o Conselho salienta que a “aplicação da inteligência artificial no setor da justiça também pode implicar o risco de perpetuar e, eventualmente, reforçar a discriminação existente, incluindo os estereótipos, os preconceitos ou as desigualdades estruturais, e de permitir uma tomada de decisões enviesadas ou opacas, podendo assim resultar na violação de direitos fundamentais, como a dignidade humana, o direito à liberdade, à não discriminação, à privacidade e à proteção de dados, bem como o direito a um processo equitativo… e em certos casos, a origem dos resultados dos sistemas de inteligência artificial baseados na aprendizagem automática não pode ser determinada, levando a um efeito de caixa negra, que impede a responsabilização adequada e necessária e torna impossível verificar como se chegou ao resultado e se está em conformidade com a regulamentação pertinente. Esta falta de transparência pode comprometer a possibilidade de impugnar eficazmente as decisões baseadas em tais resultados e pode, por conseguinte, violar o direito a um processo equitativo e a um recurso efetivo, e limitar os domínios em que esses sistemas possam ser legalmente utilizados”.

O Parlamento Europeu, outra das instituições da União Europeia, também se pronunciou sobre a utilização da inteligência artificial na área da justiça.

A resolução do Parlamento Europeu, de 6 de outubro de 2021, sobre a inteligência artificial no direito penal e a sua utilização pelas autoridades policiais e judiciárias em casos penais (2020/2016(INI)) recomenda, além do mais, “a proibição da pontuação em larga escala das pessoas recorrendo à IA; considera que qualquer forma de pontuação normativa dos indivíduos realizada em larga escala pelas autoridades públicas, em especial as autoridades policiais e judiciais, redunda numa perda de autonomia, compromete o princípio da não discriminação e não pode ser considerada em sintonia com os direitos fundamentais, em particular a dignidade humana, tal como codificada no direito da UE” e apela a uma maior transparência geral, de molde a permitir uma compreensão abrangente da utilização das aplicações de inteligência artificial na União.

A mesma resolução recorda que se impõe a todas as partes interessadas europeias, nomeadamente Estados-Membros e a Comissão, garantir, através da cooperação internacional, “um quadro jurídico e ético comum e complementar para a utilização da IA, em particular para as autoridades policiais e judiciais, que respeite plenamente a Carta, o acervo europeu em matéria de proteção de dados e; de uma maneira geral, os direitos humanos” e finaliza instando a “Agência dos Direitos Fundamentais da UE, em colaboração com o CEPD e a AEPD, a elaborar orientações, recomendações e boas práticas abrangentes, com o intuito de especificar melhor os critérios e as condições para o desenvolvimento, a utilização e a implantação de aplicações e soluções de IA a utilizar pelas autoridades policiais e judiciais”.

É essencial que se discuta as limitações/restrições a que a inteligência artificial nesta área deve estar sujeita.

Henry Kissinger, Eric Schmidt e Daniel Huttenlocher na obra “A era da inteligência artificial. E o nosso futuro humano” questionam se o criador do sistema de inteligência artificial é responsável quando “um sistema autónomo operando com base nas suas próprias perceções e decisões age” e concluem que “tal como a gestão de pessoas obedece a uma ética, também a Inteligência artificial necessita de princípios e de uma ética própria – uma que reflita não apenas a natureza da tecnologia, mas também os desafios que coloca”.

É preciso assegurar que o futuro que chegará um dia à justiça portuguesa no domínio da inteligência artificial (reunidos os recursos de sistema, redes e computadores) cumpra, em nome de valores como a transparência, prestação de contas, responsabilidade e privacidade, regras de ética básicas e imprescindíveis.

Share This