Blog

Quem protege os direitos fundamentais de sistemas de IA de risco elevado em Portugal?

Autor(es) LPL:
Mariana Melo Egídio

Tal como mencionado em publicações anteriores, o Regulamento da Inteligência Artificial cria regras harmonizadas em matéria de inteligência artificial (IA), visando otimizar o mercado interno e incentivar a adoção de uma IA confiável e centrada no ser humano. Pretende não só criar um ambiente favorável à inovação, promovendo um contexto social e ambientalmente benéfico que permita vantagens competitivas fundamentais para as empresas e para a economia europeia, mas também garantir um elevado nível de proteção dos direitos fundamentais (como a saúde ou a segurança) face aos potenciais riscos associados a diferentes sistemas e modelos de IA.

Embora o Regulamento tenha sido publicado a 12 de julho de 2024, e por conseguinte tenha entrado em vigor a 1 de agosto de 2024, a aplicabilidade das suas regras é faseada, sendo o Regulamento da Inteligência Artificial aplicável quase na totalidade apenas após o período de implementação de 2 anos (i.e., a partir de 2 de agosto de 2026).

Focando-me no artigo 77.º do Regulamento (Poderes das autoridades responsáveis pela proteção dos direitos fundamentais), este exige que os Estados-Membros identifiquem as autoridades ou organismos públicos nacionais que supervisionam ou asseguram o respeito das obrigações decorrentes do direito da União que protege os direitos fundamentais, incluindo o direito à não-discriminação, em relação ao que se refere à utilização de sistemas de IA de risco elevado referidos no Regulamento – (i) dados biométricos, (ii) infraestruturas crítica, (iii) educação e formação profissional, (iv) emprego, gestão de trabalhadores e acesso ao emprego por conta própria, (v) acesso a serviços privados essenciais e a serviços e prestações públicas essenciais, (vi) aplicação da lei, (vii) gestão de migração, asilo e controlo de fronteiras e (viii) administração da justiça e processos democráticos – cfr. o Anexo III e o Considerando 157) – até 2 de novembro e tornar essa lista acessível ao público. Os Estados-Membros devem notificar a lista à Comissão e aos outros Estados-Membros e mantê-la atualizada.

No que diz respeito a Portugal, foram selecionadas 14 entidades, após análise realizada pelo grupo de trabalho de IA, criado no âmbito do Conselho para o Digital na Administração (CDAP).

A Autoridade Nacional de Comunicações (ANACOM) assegurará a articulação transversal entre todas estas entidades para garantir uma abordagem comum à proteção dos direitos fundamentais contra sistemas de IA de risco elevado. A lista destas entidades (além da própria ANACOM) é a seguinte:

  • Inspeção-Geral das Finanças (IGF)
  • Gabinete Nacional de Segurança (GNS)
  • Entidade Reguladora para a Comunicação Social (ERC)
  • Inspeção-Geral da Defesa Nacional (IGDN)
  • Inspeção-Geral dos Serviços de Justiça (IGSJ)
  • Polícia Judiciária (PJ)
  • Inspeção-Geral da Administração Interna (IGAI)
  • Inspeção-Geral da Educação e Ciência (IGEC)
  • Entidade Reguladora da Saúde (ERS)
  • Autoridade de Segurança Alimentar e Económica (ASAE)
  • Inspeção-Geral do Ministério do Trabalho, Solidariedade e Segurança Social (IGMTSSS)
  • Autoridade para as Condições do Trabalho (ACT)
  • Entidade Reguladora dos Serviços Energéticos (ERSE)

Os Estados-Membros ainda têm tempo (até 2 de agosto de 2025) para designar o regulador ou autoridade que será responsável pela monitorização das regras contidas no Regulamento,

#ia #regulamentoia #direitos fundamentais #artigo 77 #fdul #lpl

Lisbon Public Law Research Centre

O que procura?

Ex. Investigadores, Eventos, Publicações…