SÁBADO, 212-12-2023 por Paulo Lona, Secretário-Geral do SMMP

É importante refletir sobre as repercussões que os sistemas de inteligência artificial existentes ou futuros terão sobre os direitos humanos.
 

No passado dia 10 de dezembro celebrou-se o dia dos direitos humanos e, ao mesmo tempo, os 75 anos da Declaração Universal dos Direitos Humanos.

É importante refletir sobre as repercussões que os sistemas de inteligência artificial existentes ou futuros terão sobre os direitos humanos.

Na mesma medida em que a inteligência artificial, as suas aplicações e funcionalidades se vão desenvolvendo vão crescendo as preocupações daí decorrentes com a segurança, proteção e respeito pelos direitos fundamentais e democracia.

Não existe um consenso quanto a uma definição do que é a inteligência artificial, mas, de acordo com a definição do Conselho Consultivo de Juízes Europeus (CCEJ- opinião n. º26 de 2023), trata-se da replicação da cognição humana e processo de decisão por parte de uma máquina. É um processo que utiliza modelos estatísticos e matemáticos (algoritmos) que permitem que um computador detete padrões matemáticos com um vasto conjunto de dados sem uma instrução explicita. A deteção de padrões é aquilo que é designado por “aprendizagem”. Esta análise depois forma a base para classificação de dados, seleção de dados ou tomada de decisões.

Na União Europeia está em vias de aprovação um ato legislativo que visa responder a estas preocupações e que assenta numa classificação dos sistemas de inteligência artificial em função do grau de risco que estes representam e nível de impacto.

Foi obtido um acordo provisório que visa garantir que os direitos fundamentais, a democracia, o estado de direito e a sustentabilidade ambiental sejam protegidos contra a inteligência artificial de alto risco, não deixando, ao mesmo tempo, de estimular a inovação.

As regras estabelecidas no ato legislativo estabelecem obrigações para os sistemas de inteligência artificial com base nos seus riscos potenciais e nível de impacto.

São estabelecidas um conjunto de proibições que abrangem: sistemas de categorização biométrica que utilizam características sensíveis (por exemplo as crenças políticas, religiosas, filosóficas, orientação sexual ou raça); extração não direcionada de imagens faciais da internet ou imagens de câmaras CCTV (videovigilância) para criar bancos de dados de reconhecimento facial; reconhecimento de emoções no local de trabalho e nas instituições de ensino; pontuação social baseada no comportamento social ou características pessoais; sistemas de inteligência artificial que manipulem o comportamento humano para contornar o seu livre arbítrio; e aplicações utilizadas para explorar as vulnerabilidades das pessoas (devido à sua idade, deficiência, situação social ou económica).

A utilização de sistemas de identificação biométrica (RBI – Remote Biometric Identification) em espaços acessíveis ao público, para fins de aplicação da lei, apenas será admissível com autorização judicial prévia e para um conjunto de crimes definidos.

Por sua vez, a mesma identificação biométrica “não prévia” apenas será admissível na busca direcionada de uma pessoa condenada ou suspeita da prática de um crime grave.

O chamado RBI em tempo real estará ainda mais limitado, no tempo e espaço, a buscas direcionadas de vítimas (sequestro, tráfico, exploração sexual), prevenção de uma ameaça terrorista específica e atual ou a localização ou identificação de uma pessoa suspeita de ter cometido determinados crimes específicos (por exemplo: terrorismo, tráfico, exploração sexual, homicídio, rapto, violação, assalto à mão armada ou participação numa organização criminosa).

Para os sistemas de inteligência artificial classificados como de alto risco (devido aos seus potenciais danos para a saúde, a segurança, os direitos fundamentais, o ambiente, a democracia e o Estado de Direito) foram acordadas obrigações claras, que incluem a avaliação de impacto, também aplicável nos setores bancários e dos seguros.

Os sistemas de inteligência artificial utilizados para influenciar o resultado das eleições e o comportamento dos eleitores também são classificados como de alto risco.

Os cidadãos terão direito de apresentar reclamações sobre sistemas de inteligência artificial e receber explicações sobre decisões baseadas em sistemas de inteligência artificial de alto risco que afetem os seus direitos.

Os sistemas de inteligência artificial de uso geral e os modelos em que se baseiam têm que cumprir os requisitos de transparência que forem estabelecidos, que incluem a elaboração de documentação técnica, o cumprimento da legislação da União Europeia em matéria de direitos de autor e a divulgação de resumos detalhados sobre o conteúdo utilizado na formação.

Para os modelos de alto impacto com risco sistémico, as obrigações são mais rigorosas, poderão ser exigidas avaliações de modelos, avaliar e atenuar riscos sistémicos, realização de testes, obrigação de comunicar incidentes graves, garantir a cibersegurança e comunicar sobre a sua eficiência energética.

O incumprimento das regras pode dar origem a multas de milhões de euros, dependendo sempre o montante da multa da gravidade da infração e da dimensão da empresa.

Este tema da inteligência artificial na justiça foi igualmente tratado na opinião n.º 26 (2023) do Conselho Consultivo dos Juízes Europeus (O uso da tecnologia no judiciário), órgão do conselho da Europa, da qual resultou, além do mais, a necessidade de assegurar o cumprimento dos princípios fundamentais do Estado de Direito ao mesmo tempo que se promove a celeridade e eficiência na administração da justiça.

Share This