CTIC-GuIA Responsável para A IA Na AP
CTIC-GuIA Responsável para A IA Na AP
CTIC-GuIA Responsável para A IA Na AP
SIGLAS E ACRÓNIMOS
AP Administração Pública
CE Comissão Europeia
DL Deep Learning
IA Inteligência Artificial
UE União Europeia
3
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
ÍNDICE
SUMÁRIO EXECUTIVO 6
1. ENQUADRAMENTO 8
1.1. Âmbito e Estrutura do Guia 8
1.2. Glossário 9
1.3. O que é a IA? 10
1.4. Como funciona a IA? 11
1.5. IA na sociedade e as suas implicações 11
1.6. IA no Mundo 15
2. IA EM PORTUGAL 18
2.1. Estratégia Nacional 18
2.2. Ecossistema e atores 20
2.3. Ecossistema de dados na génese da IA
na Administração Pública 22
2.4. Inovação em Portugal 29
4. IA MALICIOSA 43
5. RECOMENDAÇÕES 48
4
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
6. BARREIRAS E DESAFIOS 52
8. FONTES COMPLEMENTARES 59
9. ANEXOS 62
AGRADECIMENTOS 75
5
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
SUMÁRIO EXECUTIVO
A crescente escolha de soluções de Inteligência Artificial (IA), com elevado impacto sobre
inúmeros setores da sociedade, suscita um conjunto de desafios aos quais urge dar res-
posta. Neste âmbito, enfatizam-se as questões associadas à ética, justiça, transparência,
responsabilidade e explicabilidade destes sistemas.
Embora a evolução dos sistemas de IA se faça acompanhar de um significativo aumento
de investigação académica e científica, a rapidez com que estas tecnologias proliferam e o
modo como se relacionam com a sociedade, exige um espaço para dúvidas e discussão.
Por outro lado, é necessário identificar o que pode estar em causa, no uso de IA, por exem-
plo se estamos a avaliar candidatos para um emprego ou para o acesso a uma instituição
de ensino, se estamos a decidir sobre atribuição de crédito ou um apoio social, se esta-
mos perante diagnósticos médicos ou decisões judiciais, ou veículos autónomos, todos
estes casos constituem alguns exemplos onde a questão do impacto ganha uma outra
dimensão de discussão e importância.
É importante lembrar que a IA é concebida por pessoas e deve centrar-se na criação de
benefícios para as pessoas, e que as questões éticas associadas aos sistemas de IA estão
intrinsecamente relacionadas com todos aqueles que estão envolvidos na sua conceção e
utilização, desde aqueles que desenvolvem os algoritmos, aos decisores, e aos governos.
Em igual medida, é pertinente considerar o que está sob o controlo humano e o grau de
autonomia destas soluções.
A Agência para a Modernização Administrativa (AMA) vem uma vez mais assumir o seu
papel enquanto instituição pública responsável pela promoção e desenvolvimento da mo-
dernização administrativa em Portugal propondo, através do projeto IA Responsável, a
exploração de caminhos para se conseguir uma IA que considere estas questões. Esta
disponibiliza documentos e instrumentos com o intuito de dar suporte e de promover a
adoção progressiva e gradual de uma IA ética, transparente e responsável.
Faz igualmente parte da visão deste projeto, contribuir para o equilíbrio entre uma dis-
cussão filosófica/teórica e a discussão prática, aprofundando os conceitos de respon-
sabilização, transparência, explicabilidade, justiça e ética. Conceitos estes que contêm, a
título de exemplo, a problemática do viés, muito associada aos algoritmos com impacto
social. A partir de uma reflexão que considere ambas as discussões, pretende-se garantir
a proteção da democracia, do Estado de direito e dos direitos fundamentais, com a mate-
rialização destes conceitos no modo como os serviços de IA são pensados, desenhados
e providenciados, quer no setor público quer no setor privado.
Na sua estrutura, o guia procura definir o que é a IA e o seu funcionamento, mostrar como
está presente na sociedade e identificar alguns dos efeitos decorrentes da sua utilização.
Procura ainda informar sobre o enquadramento da IA no Mundo e em Portugal, e identifica
6
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
7
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
1.
ENQUADRAMENTO
1.1.
ÂMBITO E ESTRUTURA DO GUIA
O projeto “Guia Responsável” tem como objetivo a elaboração de um guia para a utilização
da Inteligência Artificial (IA) na Administração Pública (AP). O mesmo pode servir ainda de
referência para o setor privado.
No âmbito deste projeto foi também desenvolvida uma aplicação de avaliação de risco,
disponível em https://ia.tic.gov.pt, com duas vertentes: identificação e mitigação. Esta Fer-
ramenta permite dar apoio a políticas públicas relacionadas com Data Science, Big Data,
ML e IA, nomeadamente divulgar melhores práticas e estabelecer critérios de avaliação
que possam suportar pareceres prévios e candidaturas de financiamento.
Numa altura em que as tecnologias emergentes têm cada vez mais impacto na sociedade
e que as implicações éticas das mesmas começam a ser amplamente discutidas, este
Guia dá continuidade às bases criadas pelo Regulamento Geral sobre a Proteção de Da-
dos e pela Estratégia Nacional de Inteligência Artificial para uma Inteligência Artificial mais
transparente, ética e responsável em Portugal.
Dada a existência de normas de guidelines em áreas como finanças, indústria farmacêu-
tica, aviação, produção de dispositivos médicos, proteção do consumidor e proteção de
dados, o Guia foi estruturado de forma a complementar as recomendações já existentes.
Visa-se assim, complementar os conhecimentos especializados existentes e ajudar as
autoridades na monitorização e supervisão das atividades das organizações que utilizam
sistemas com IA e possuem produtos e serviços baseados em IA.
Este Guia, ao qual se associa uma Ferramenta de Avaliação de Risco online, é pensado e
escrito na encruzilhada do florescimento da IA em Portugal e da procura mundial por uma
IA Responsável. O Guia inicia com a apresentação geral do contexto e conceitos associa-
dos à IA, prossegue com a exemplificação de aplicações de IA e finaliza com a explicação
dos princípios associados a uma IA Responsável e com recomendações de ações para o
seu cumprimento.
Embora tenha o intuito específico de orientar projetos na AP e ser referência para o Setor
Privado e Academia dirige-se também a todas as pessoas e entidades com a intenção de
aprender sobre IA Responsável.
8
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
1.2.
GLOSSÁRIO
9
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
SAÍDAS: relatórios, gráficos, tabelas, ecrãs e qualquer outro resultado obtido por proces-
samentos de programas computacionais ou algoritmos.
UTILIZADOR: alguém que faz uso da computação, normalmente um ser humano, mas
que pode ser, alternativa ou complementarmente, um ou mais computadores.
1.3.
O QUE É A IA?
10
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
1.4.
COMO FUNCIONA A IA?
1.5.
IA NA SOCIEDADE E AS SUAS IMPLICAÇÕES
11
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
No Setor da SAÚDE:
• Reconhecimento de padrões imagiológicos com relevância clínica, nomeada-
mente em oncologia, através de visão computacional;
• Deteção de padrões microbianos em diagnósticos por imagem, para auxílio na
construção de diagnósticos diferenciais sólidos e prescrição de antibióticos mais
adequados;
• Construção de modelos para prever a viabilidade de vacinas em toda a cadeia de
abastecimento e garantir a sua entrega eficaz;
• Eliminação de barreiras associadas à inacessibilidade a instalações de saúde, co-
mum nas zonas rurais;
• Identificação precoce de pandemias;
• Análise de registos médicos para fornecer serviços de saúde mais personaliza-
dos, melhores e mais rápidos;
• Apoio na projeção de planos de tratamento personalizados;
• Desenvolvimento de cuidados de saúde baseados em precisão e genómica;
• Projeção de novos medicamentos e terapias médicas;
• Melhoria de processos burocráticos do Sistema Nacional de Saúde, como o agen-
damento e o atendimento ao utente;
• Redução nos custos de saúde por meio de melhor programação e otimização de
ativos de saúde e força de trabalho;
• Auxílio em trabalhos repetitivos, como a higienização ou testes de laboratório;
• Controlo de qualidade de alimentos e de medicamentos.
No Setor da EDUCAÇÃO:
• Tradução de sinais de linguagem gestual para a linguagem corrente;
• Construção de pareceres imediatos sobre a escrita dos alunos, permitindo que re-
visem os seus trabalhos e melhorem rapidamente as suas competências, através
de sistemas de NLP e Deep Learning (DL);
• Recomendação de formação profissional, por meio de Intelligent Tutoring Sys-
tems (ITS);
• Seleção das candidaturas ao ensino não tendenciosa e igualitária;
• Ensino interativo.
12
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
• Navegação autónoma;
• Determinação de itinerários para deslocações mais rápidas e sem constrangi-
mentos através de ML;
• Otimização da mobilidade dos transportes, assim como, da experiência dos utili-
zadores de transportes públicos;
• Redução do congestionamento de tráfego por meio de melhores serviços de in-
formação, gestão de semáforos e planeamento de obras viárias;
• Otimização da utilização e da segurança de condução nas estradas;
• Controlo de entrada/saída de turistas nas cidades;
• Gestão de multidões.
No Setor da AGRICULTURA:
• Recolha e processamento de dados climáticos e agrícolas, com a finalidade de me-
lhorar os sistemas de irrigação utilizados por agricultores com poucos recursos;
• Planeamento bem sustentado dos processos agrícolas, desde a preparação dos
terrenos à colheita de alimentos;
• Resolução de desafios associados à procura de alimentos, à escassez de irriga-
ção e ao uso inapropriado de pesticidas;
• Rastreamento e análise de medidas de controlo de pragas, de modo a ter inter-
venções mais oportunas e localizadas, para estabilizar a produção agrícola e re-
duzir o uso de pesticidas, utilizando sistemas de visão computacional.
No Setor da JUSTIÇA:
• Recolha e confronto de informações relevantes em documentos relacionados em
casos judiciais, permitindo que advogados pesquisem e defendam casos com
maior eficácia, utilizando NLP e ML.
13
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
No Setor da CULTURA:
• Combate às notícias falsas, através de blockchain;
• Sugestão de atividades de lazer.
14
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
1.6.
IA NO MUNDO
15
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
De acordo com este quadro conceptual considera-se que os sistemas inteligentes são
confiáveis quando:
• Existe uma IA legal, ética e robusta;
• Se concretizam quatro princípios éticos: respeito pela autonomia humana, pre-
venção de danos, equidade e explicabilidade;
• Se asseguram sete requisitos: controlo e supervisão humana, segurança e robus-
tez técnica, privacidade de governação dos dados, transparência, diversidade, não
discriminação e justiça, bem-estar social e ambiental, e responsabilização;
• É possível aplicar uma avaliação de fiabilidade, como seja o caso da ALTAI (As-
sessment List for Trustworthy AI) desenvolvida pelo AI-HLEG da CE e oficialmente
publicada no final de 2020.
Com vista a promover a excelência no domínio da IA, a CE definiu como aposta para o
período de 2019 a 2024:
• A criação de uma nova parceria público-privada para a IA e robótica;
• O reforço e integração dos centros de excelência em investigação;
• A criação de plataformas nacionais de inovação digital especializadas em IA;
• O reforço do financiamento destinado ao desenvolvimento e utilização de IA;
• A aplicação da IA na contratação pública, tornando os processos mais eficientes;
• O incentivo à aquisição de sistemas de IA por parte dos organismos públicos.
Mundialmente, verificam-se grandes variações de maturidade, de referências legais, de
iniciativas de estruturação, de objetivos de investigação e de atores/grupos. Alguns paí-
ses iniciaram cedo o caminho da IA e seguem-no no sentido de favorecer uma IA que
16
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
garanta uma sociedade mais justa e que privilegie o bem-estar. Uns deram prioridade à
utilização da IA no setor privado, outros para fortalecer o Governo e outros para colocar
os seus cidadãos como o centro do tema (human-centric).
O cruzamento do índice de Resposta Governamental para IA e do Índice Global de IA evi-
dencia a liderança mundial em IA pelos seguintes países: Singapura, Alemanha, França,
Canadá, Reino Unido, EUA e China (Figura 2). O posicionamento de Portugal no mundo em
2019, avaliado a partir dos dois índices, indica progressos significativos e oportunidades
para mais implementação, inovação e investimento em IA.
17
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
2.
IA EM PORTUGAL
2.1.
ESTRATÉGIA NACIONAL
18
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
5
LINHAS DE AÇÃO
• Modernização da AP;
• Disseminação generalizada do conhecimento sobre IA;
• Novos desenvolvimentos tecnológicos (supercomputação, materiais
e computação quântica);
• E resposta a desafios sociais associados à IA, nomeadamente aspe-
tos relacionados com a ética e a segurança.
PROGRAMA INCODE.2030
O INCoDe.2030 assume-se como uma iniciativa integrada de política pú-
blica dedicada ao reforço das competências digitais. Visa aumentar os conhecimentos,
qualificações e competências da população, bem como, melhorar o posicionamento e
competitividade de Portugal no contexto internacional. De modo a atingir estes objetivos
foram definidas cinco linhas de ação: inclusão, educação, qualificação, especialização e
investigação.
O programa INCoDe.2030, dedicado ao reforço das competências digitais, trouxe consigo
vários temas de extrema importância para o posicionamento de Portugal na Sociedade
da Inteligência.
A Estratégia Nacional para a Inteligência Artificial, bem como a Estratégia Nacional para
a Computação Avançada, fazem parte da linha de ação de investigação que tem como
objetivo garantir as condições para a produção de novos conhecimentos e a participação
ativa em redes e programas internacionais de Investigação e Desenvolvimento (I&D)..
19
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
A FCT vem promovendo uma série de concursos desde 2018, cujo objetivo central é o apoio
a atividades e projetos de I&D na área de Data Science e IA na AP que se enquadram na
Iniciativa Nacional em Competências Digitais e.2030, Portugal INCoDe.2030 (designada-
mente no Eixo 5 – Investigação). Mais informações em https://www.incode2030.gov.pt/
SAMA 2020
No âmbito do SAMA 2020, o objetivo central para estes temas é pro-
mover a adoção por parte da AP de técnicas de análise e de modelos associados às áreas
de IA ou Data Science, como por exemplo, análise preditiva, NLP, análise de padrões e ML.
Pretende-se promover a implementação de algoritmos e modelos de análise de dados,
implementados pelo menos em protótipos funcionais, que permitam a demonstração e
utilização experimental por parte das entidades da AP, e a implementação generalizada de
sistemas completos e preparados para operar em ambiente real.
Os impactos esperados visam o aumento da eficiência e eficácia dos processos internos,
contribuir para a implementação de políticas públicas e melhorar a prestação de serviços
aos cidadãos e empresas.
Mais especificamente, pretende-se desenvolver soluções experimentais, em estreita co-
laboração com a comunidade científica, promovendo assim a transferência de conheci-
mento e a adoção de técnicas avançadas de IA e Data Science na AP.
No contexto destes programas, a Agência para a Modernização Administrativa (AMA) foi
uma das entidades que financiou projetos nas áreas de Data Science e IA, no valor global
de 10M de Euros, envolvendo a AP, as Empresas e a Academia.
2.2.
ECOSSISTEMA E ATORES
20
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
Um ecossistema de IA deve:
• Dinamizar um diálogo público moderado pelo governo, bem informado e interati-
vo, incluindo todas as partes interessadas, para melhorar a compreensão da IA,
debater oportunidades e desafios relacionados com a IA para a economia, a so-
ciedade e o mundo do trabalho, e informar os formuladores de políticas em todos
os setores;
• Promover uma IA responsável na educação e investigação, por meio do intercâm-
bio de conhecimentos e das melhores práticas, da orientação para uma conduta
organizacional responsável e de incentivos para transformar o conceito de IA Res-
ponsável numa vantagem competitiva;
• Elaborar, adotar e disseminar políticas que articulem os seus compromissos com
os valores centrados no homem e na justiça e que se alinhem com instrumen-
tos internacionais, como por exemplo as Diretrizes preconizadas pela OCDE, UE,
UNESCO, ONU, etc;
• Encorajar a aliança entre o setor académico e o setor público para conjuntamente
promoverem a inovação, o crescimento e o desenvolvimento humano numa ótica
sustentável; e reforçar os mecanismos de partilha de dados entre estes setores
para melhoria da qualidade dos algoritmos e redução/eliminação de vieses.
21
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
2.3.
ECOSSISTEMA DE DADOS NA GÉNESE DA IA NA AP
Setor Público
o Findable,
Transformação Digital
o Accessible,
Atendimento o Interoperáveis
Data Security DATA
BIG Diretivas 360
o Reutilizáveis
P R I N C Í P I O S
DATA
Serviços o Share and Reuse
Normas
DADOS o Once only
Setor Privado
A ética associada aos dados (data ethics), a segurança e a proteção dos dados (data se-
curity and privacy) são garantias fundamentais no reforço da confiança em abordagens
data 360, dirigidas ou orientadas por dados. De seguida, descrevem-se alguns conceitos
essenciais.
DATA ETHICS
Os dados assumem um papel essencial para a IA, uma vez que os algoritmos que a su-
portam são alimentados por dados. É, por isso, fundamental que a construção de um ca-
minho para a ética na IA se sustente na ética, no acesso, na partilha e utilização de dados.
Uma das estratégias primordiais é o desenvolvimento de estruturas que permitam orien-
tar e promovam o acesso, a utilização e reutilização da crescente quantidade de evidên-
cias, estatísticas e dados relativos a operações, processos e resultados, no sentido de
aumentar a sua abertura e transparência. Esse crescimento do universo de dados deve,
em consonância, ser acompanhado de instrumentos que lhes atribuam confiança. O en-
volvimento público na formulação de políticas, na criação de valor para a sociedade e no
22
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
desenvolvimento de serviços consolida o framework ético dos dados e gera uma comuni-
dade mais orientada aos dados.
A ética dos dados é firmada pelo já vigente conjunto de leis e regulamentos que assegura
os direitos e liberdades humanos, bem como por outros pressupostos que lhes são adi-
cionados, dos quais se destacam os seguintes princípios éticos:
23
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
Relativa aos dados abertos e à reutilização de Diretiva (UE) 2019/1024 do Parlamento Europeu e do
Europeu
informações do setor público (reformulação) Conselho, de 20 de junho de 2019
Estabelece os direitos de autor e direitos conexos no Diretiva (UE) 2019/790 do Parlamento Europeu e do
Europeu
mercado único digital Conselho de 17 de abril de 2019
Estabelece o regime para o livre fluxo de dados não Regulamento (UE) 2018/1807 do Parlamento
Europeu
pessoais na União Europeia Europeu e do Conselho de 14 de novembro de 2018
TABELA 1: LEIS, DIRETIVAS E REGULAMENTOS DE PRESERVAÇÃO DOS DADOS GOVERNAMENTAIS E DOS SERVIÇOS DIGITAIS,
EM PORTUGAL.
CONTINUÇÃO
24
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
TABELA 1: LEIS, DIRETIVAS E REGULAMENTOS DE PRESERVAÇÃO DOS DADOS GOVERNAMENTAIS E DOS SERVIÇOS DIGITAIS,
EM PORTUGAL.
DATA 360
O termo Data 360 ou visão 360 graus do cliente, cidadão, consumidor ou empresa, desig-
na todas as informações disponíveis e significativas, recolhidas por uma organização com
o propósito de fornecer o atendimento e serviço mais personalizado e eficiente. O concei-
to é amplamente utilizado por entidades que implementam uma abordagem centrada no
cliente para a sua atividade.
25
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
A importância da visão de 360 graus do cliente não pode ser exagerada. Ela melhora
a eficácia de todos os esforços efetuados pelos clientes, prevê a procura potencial de
serviços por parte dos clientes e ajuda na identificação de soluções integradas. A visão
de 360 graus permite que as organizações forneçam a melhor experiência ao cliente, au-
mentando a fidelização e a satisfação.
BIG DATA
Big Data é um termo que descreve um grande volume de dados estruturados semiestrutu-
rados e não estruturados que são gerados a cada momento.
A emergência de novas tecnologias, como as redes móveis, as redes sociais e a IoT, reve-
lou um aumento na criação de dados. Hoje, a conexão usual de carros, eletrodomésticos,
wearable devices, e outros, veio gerar ainda mais dados passíveis de serem processados
e transformados, e de criarem conhecimento e informações úteis.
O que distingue o Big Data está precisamente relacionado com a possibilidade e a opor-
tunidade de cruzar esses dados provenientes de diversas fontes para obtermos insights
mais rápidos e mais preciosos. A exigência dos cidadãos com os serviços públicos e tam-
bém como consumidores e o aumento da competitividade obriga a inovar e dar respostas
baseadas em elevados padrões de qualidade.
Quanto mais dados são gerados, maior será o esforço de processamento para gerar infor-
mações e conhecimento. Desta forma, a rapidez em obter informação faz parte de todo o
potencial que o Big Data pode proporcionar no setor público e no setor privado.
Por último, de referir os vários V’s que estão associados à definição do Big Data. São eles,
o valor, a variabilidade, a variedade, a velocidade, a veracidade e o volume.
DADOS ABERTOS
Com o lançamento do portal dados.gov.pt em 2011, Portugal assumiu-se como um país
pioneiro em compromissos com questões relativas a dados abertos e partilha de informa-
ção do setor público na Europa.
Nos últimos anos tem-se assistido a um crescimento exponencial de movimentos e plata-
formas associadas aos dados abertos. Têm sido lançados dezenas de portais nacionais,
regionais ou locais em todo o mundo, o que contribuiu para vários desenvolvimentos a
nível de protocolos, standards ou tecnologias.
Ao mesmo tempo, a nível nacional, o dados.gov.pt tem cumprido o seu papel como portal
nacional de dados abertos da AP. A 26 de Agosto de 2021, a Lei n.º 68/2021 reconheceu-o
juridicamente como o catálogo central de dados abertos em Portugal, atribuindo-lhe a
função de agregar, referenciar, publicar e alojar dados abertos de diferentes organismos
e setores da AP. Hoje, é um serviço partilhado de alojamento de dados provenientes de
26
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
vários organismos públicos, que permite disponibilizar a informação para sua reutilização
através de mecanismos automatizados (webservices) ou de ficheiros para download.
O dados.gov.pt disponibiliza dados de diferentes domínios e sistemas, constituindo-se
como o catálogo central de dados abertos em Portugal. Agrega mais de 4.834 datasets
(conjuntos de dados) e 9.506 recursos, e conta com mais de uma centena de organiza-
ções e mais de mil utilizadores (dados de Setembro de 2021). Aloja informação utilizada
em plataformas públicas, tais como o Mapa do Cidadão ou o Portal da Transparência
Municipal. É hoje uma das peças centrais na estratégia de open government em Portugal,
contando com cerca de 110.000 visitas nos últimos 2 anos.
Os dados abertos representam um subconjunto muito importante do vasto domínio de
informação do setor público e são parte das políticas dedicadas ao Governo Aberto, com-
binando princípios da transparência, democracia, participação e colaboração e contribuin-
do para uma maior eficiência dos serviços governamentais e medição do impacto das
políticas.
O portal dados.gov.pt ambiciona ser não só um repositório, mas um ponto de troca de
informação em tempo real, onde os dados possam ser utilizados para a criação de valor
para a sociedade em geral, através da produção de conhecimento, produtos e serviços.
Os dados gerados na AP congregam em si um potencial incomensurável de utilização, de
criação de conhecimento e de desenvolvimento para a sociedade. A transformação digital
e as tecnologias emergentes vieram contribuir para este valor, que lhe é intrínseco, ao con-
tribuírem para uma crescente quantidade de dados gerados e aí centralizados.
O âmbito de reutilização destes dados pela AP, Academia e Empresas é muito vasto, sen-
do um exemplo recente, a criação de apps com base em dados georreferenciados.
Neste sentido, procura-se implementar um conjunto de melhorias contínuas e estabelecer
uma evolução constante do portal, de forma a que a qualidade e a quantidade dos datasets
disponibilizados possam criar mais oportunidades e desafios à sua reutilização.
A dinamização da comunidade em torno dos dados abertos e a reutilização desses mes-
mos dados, contribui para reunir evidências que possam apoiar a formulação de políticas
de futuro melhor informadas, sustentadas e mais ajustadas, bem como, alcançar impac-
tos sociais e económicos significativos.
Os dados abertos são um excelente contributo de conhecimento sobre políticas, estra-
tégias e iniciativas e permitem apoiar o desenvolvimento de metodologias para avaliar o
impacto e a criação de valor económico, social e de boa governança.
27
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
DATA DRIVEN
Uma abordagem orientada a dados, isto é data driven, significa que a gestão e tomada de
decisões estratégicas se baseia na análise e interpretação de dados verificáveis e con-
fiáveis. É um modo de otimizar recursos e tornar projetos, programas e serviços mais
eficientes, efetivos e assertivos.
De acordo com a OCDE, a gestão orientada a dados é uma das dimensões prioritárias da
transformação digital dos governos. Nessa perspetiva, através da utilização de dados, um
governo ou empresa consegue com maior facilidade identificar prioridades e gerar valor onde
este é essencial, antecipando tendências sociais e necessidades dos cidadãos e empresas. A
partir de dados é possível gerar conhecimento que informe, avalie e permita a compreensão
do impacto de políticas e serviços públicos. Deste modo, a governação de um país ou a gestão
de uma entidade torna-se mais sustentável e resiliente, capaz de se transformar e adaptar.
Para tal ser possível, é necessária uma cultura e maturidade analítica que requer a forma-
ção das equipas e organizações, orientada às melhores práticas de gestão baseada em
dados.
Na gestão orientada a dados, um dos maiores desafios é a capacitação e estímulo do
estudo e da interpretação dos dados, de modo a conseguir respostas e soluções para
problemas que não estejam assentes em suposições ou intuições. Para suprir esta lacuna
utiliza-se a análise de dados para encontrar tendências e antecipar cenários.
28
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
2.4.
INOVAÇÃO EM PORTUGAL
29
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
30
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
3.
IA ÉTICA, RESPONSÁVEL
E TRANSPARENTE
3.1.
BASES SÓLIDAS DE GOVERNAÇÃO E LIDERANÇA
31
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
3.2.
DIMENSÕES
32
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
IA RESPONSÁVEL
A IA Responsável materializa-se quando sistemas baseados em técnicas adaptativas, i.e.
sistemas inteligentes:
• Cumprem a execução de responsabilidades e possibilidade plena de auditoria/
inspeção (Responsabilização);
• Asseguram a visualização das suas componentes e dos procedimentos aplica-
dos (Transparência);
• Explicam o funcionamento e as implicações decorrentes das funções computa-
cionais (Explicabilidade);
• Incorporam garantias e salvaguardas aos utilizadores e beneficiários (Justiça);
• Asseguram mecanismos efetivos de mitigação de vieses inesperados, diminuin-
do desta forma possíveis riscos éticos (Ética).
33
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
Um sistema com IA Responsável garante que utilizadores, empresas e governos não in-
corram ou sofram consequências associadas a vieses produzidos por sistemas inteligen-
tes que de alguma forma instanciem comportamentos diferentes dos planeados e, assim,
respeitem os valores morais da sociedade que os alberga.
3.2.1.
RESPONSABILIZAÇÃO
34
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
3.2.2.
TRANSPARÊNCIA
E EXPLICABILIDADE
3.2.3.
JUSTIÇA
35
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
3.2.3.1.
VIÉS
A introdução ou criação de viés em sistemas de IA está intimamente ligada ao princípio de
justiça. É essencial ter presente que pode haver inclusão inadvertida de histórias tenden-
ciosas, incompletas e imprecisas, e modelos de má governança que incorrem no sentido
oposto ao objetivo inicial do sistema. A perpetuação inconsciente destas tendências pode
conduzir ao preconceito e à discriminação não intencional.
Um sistema com IA tendencioso pode criar, através do algoritmo que lhe foi imputado,
resultados injustos, ao descrever erros sistemáticos e repetíveis num sistema de com-
putador. Estes podem ser consequência, por exemplo, do algoritmo desenhado ou das
escolhas relacionadas com a codificação, recolha, seleção ou utilização dos dados para
alimentar o algoritmo. Elementos tendenciosos podem entrar no sistema algorítmico de
IA por arquétipos culturais, sociais ou institucionais pré-existentes, por limitações técnicas
ou porque são utilizados por indivíduos que não foram considerados na fase conceptual
de desenvolvimento. Em todos os sistemas existem estes elementos e os impactos po-
dem variar, no entanto a sua deteção exige que sejam removidos. Com frequência essa
remoção tem de ser feita nas fases mais prematuras do processo, ou seja, na recolha de
dados.
Algumas estratégias para gestão da justiça na IA foram já partilhadas por entidades líde-
res em IA, a exemplo a Google, a IBM (International Business Machines Corporation) e a
Microsoft. É, contudo, essencial o desenvolvimento de procedimentos padronizados que
verifiquem preconceitos ou outros objetos de discriminação adaptados ao número cres-
cente de dados disponíveis e da celeridade desse mesmo crescimento.
No processo de construção de um sistema com IA, algumas questões podem ser formu-
ladas com a finalidade de identificar elementos tendenciosos, entre as quais:
36
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
3.2.4.
ÉTICA
À medida que a Inteligência Artificial se firma na sociedade e assume uma função proemi-
nente na construção de decisões automatizadas, desafios éticos surgem paralelamente.
Embora com evidente potencial de orientar serviços e aumentar a eficiência e eficácia das
instituições governamentais, ao aumentar a sua capacidade de resposta às necessidades
da sociedade, a consciencialização de riscos inerentes à sua implementação é perentória.
Tal é indissociável de uma aplicação responsável e ética, ponderada em função do contex-
to e abordada metodicamente.
A confiança no florescimento de sistemas com IA implica uma abordagem previsível e
transparente, que permita a compreensão da sua complexidade e priorize o benefício, o
aumento de poder individual e a proteção do indivíduo e dos bens comuns à sociedade.
Neste sentido, uma estrutura legal robusta não é suficiente per se, deve ser acompanhada
de um código de ética. Este permitirá a projeção de um conjunto de valores, princípios e
diretrizes que acompanhem os desenvolvimentos tecnológicos, bem como, os elementos
sociais e políticos associados. A sua aplicação deve estar assegurada em todas as fases
do ciclo de um sistema com IA e deve ser cumprida por todos os indivíduos associados.
Os princípios éticos da IA estão em consonância com os princípios éticos para qualquer
iniciativa de dados. Releva-se o respeito pelo homem, o respeito pelos direitos humanos,
a participação e a responsabilidade pelas escolhas e decisões.
—
O ciclo de valor dos dados abrange as etapas de recolha e criação, de armazenamento,
proteção e processamento, de partilha, organização e publicação, e de utilização e reutili-
zação. O sucesso da aplicação da IA resulta do sucesso de todas as etapas.
FIGURA 6: PONTOS CRÍTICOS À VULNERABILIDADE DAS DIMENSÕES EM FUNÇÃO DAS ETAPAS DE UM PROJETO COM IA.
37
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
3.2.5.
DIREITOS HUMANOS
38
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
LEGENDA: 1. Igualdade de dignidade e direitos; 2. Direitos e liberdades sem discriminação; 3. Direito à vida, à liberdade e à segurança
pessoal; 4. Proibição da escravatura ou servidão; 5. Ser livre de tortura ou tratamentos cruéis, desumanos ou degradantes; 6. Direito ao
reconhecimento da sua personalidade jurídica; 7. Igualdade perante a lei; 8. Direito a recurso efetivo para as jurisdições nacionais compe-
tentes; 9. Ser livre de prisão, detenção ou exílio arbitrário; 10. Direito a um julgamento público equitativo, independente e imparcial; 11.Di-
reito a ser considerado inocente até que a sua culpabilidade fique legalmente provada; 12. Ninguém sofrerá intromissões arbitrárias na
vida privada, na família, no domicílio e na correspondência, e ataques à honra e reputação; 13. Direito à circulação livre e entrada e saída
do seu país; 14. Direito a asilo num outro país, em perseguição; 15. Direito a uma nacionalidade e liberdade à sua mudança; 16. Direito ao
casamento e a constituir família; 17. Direito à propriedade; 18. Liberdade de pensamento, de consciência e de religião; 19. Liberdade de
opinião, de expressão e à informação; 20. Liberdade de reunião e de associação pacíficas; 21. Direito de acesso às funções públicas de
um país e liberdade de voto no poder público; 22. Direito à segurança social; 23. Direito ao trabalho desejado, em condições equitativas
e à fundação e filiação a sindicatos; 24. Direito ao repouso e aos lazeres; 25. Direito a um nível de vida adequado; 26. Direito à educação;
27. Direito de participação na vida cultural da comunidade; 28. Direito a uma ordem, no plano social e no plano internacional, articulada
com o presente nesta Declaração; 29. Deveres comunitários essenciais ao desenvolvimento completo e livre dos princípios das Nações
Unidas; 30. Nenhum Estado, agrupamento ou indivíduo poderá destruir os direitos e liberdades enunciados.
39
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
3.3.
VALORES E PRINCÍPIOS
Os valores e princípios devem ser respeitados por todos os atores durante o ciclo de vida
dos sistemas com IA, devem ser promovidos mediante uma avaliação e evolução contí-
nua das leis, dos regulamentos e das várias diretrizes internacionais existentes, nomeada-
mente em relação aos direitos humanos, e estarem alinhados com os objetivos de susten-
tabilidade social, política, ambiental, educacional, científica e económica.
Os valores desempenham um papel importante como ideais que motivam a orientação de
medidas políticas e normas jurídicas. Deste modo a identificação de valores associados à
IA, permite inspirar comportamentos desejáveis e representa os fundamentos dos diver-
sos princípios, que por sua vez, revelam os valores subjacentes de forma mais objetiva,
de modo que os valores possam ser mais facilmente percecionados e incorporados em
políticas dirigidas aos cidadãos e às empresas.
As pessoas devem poder confiar que os sistemas com IA oferecem benefícios que podem
ser compartilhados por toda a sociedade, ao mesmo tempo que tomam medidas adequa-
das para mitigar os riscos. Um requisito essencial para aumentar a confiança é que em
todo o seu ciclo de vida, os sistemas com IA estejam sujeitos a monitorização do governo,
empresas privadas, sociedade civil e outras partes interessadas independentes.
Os sistemas computacionais clássicos, pelo fato de executarem apenas algoritmos sim-
ples, raramente foram alvo de reflexões sobre princípios e valores durante o seu desenvol-
vimento e operação.
Com o crescimento da dimensão das bases de dados, das novas tecnologias e dos me-
canismos automáticos de recolha e partilha de dados, as primeiras iniciativas para a pro-
teção e privacidade de dados ganharam relevo. No caso europeu, entrarem em vigor em
maio de 2018.
As novas tecnologias inteligentes contribuíram para o aumento do raciocínio indutivo e ab-
dutivo, que conduz inevitavelmente à geração de novas informações, muitas das quais fre-
quentemente desconhecidas dos cidadãos, das empresas e dos governos. Deste modo,
novos avanços na legislação e na proteção de dados precisam ser implementados, no
alinhamento com os valores e princípios reconhecidos.
Pensar numa IA com valores e princípios é acima de tudo pensar numa Inteligência Artifi-
cial Responsável.
40
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
41
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
3.4.
INCLUSÃO, IGUALDADE, DESENVOVIMENTO
SUSTENTÁVEL E BEM-ESTAR
42
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
4.
IA MALICIOSA
Embora o valor da IA seja inquestionável pelo seu potencial de gerar benefícios para a
sociedade, a utilização destes sistemas pode também desencadear resultados indese-
jáveis significativos para os indivíduos, organizações e sociedade. Quando se pensa em
sistemas de IA complexos, capazes de aprender e se adaptar a desafios generalizados,
prevê-se um aumento da incerteza e da dimensão dos efeitos gerados, sejam inadvertidos
e imprevisíveis ou de intenção maliciosa.
A origem de tais efeitos danosos pode estar associada a sistemas programados para
uma função que desencadeará resultados benéficos, mas cuja metodologia para atingir o
objetivo pretendido foi destrutiva, ou a sistemas programados a priori para uma resposta
perversa. Sem mecanismos rigorosos de controlo, proteção e segurança, os algoritmos
podem ser corrompidos ou sistemas de IA podem ser criados com intuito malicioso.
Considerando que algumas dessas consequências foram já verificadas e ocorrem de
modo limitado, e que o avanço tecnológico pode exacerbar os seus efeitos, a transição
de uma posição de avaliação retrospetiva para uma preventiva torna-se assim essencial.
A compreensão dos riscos, quais as suas interdependências e causas subjacentes, per-
mitirá a sua identificação e priorização. Por sua vez, a identificação de riscos ocultos, in-
compreendidos ou apriori não identificados, otimizará a sua deteção nos modelos mesmo
antes de serem implementados.
A aproximação aos elementos de risco, que podem conduzir a resultados maliciosos, deve
ser efetuada em diferentes perspetivas que se possam complementar.
Do ponto de vista da construção de um sistema com IA, a análise de risco deve compreen-
der todas as fases, desde a conceção aos resultados. Assim sendo, podem-se identificar
como pontos críticos de controlo:
• A fase de conceptualização – fundamentado por casos não éticos;
• A gestão de dados – adição de dados incompletos ou incorretos, dados não se-
guros e incumprimentos regulatórios;
43
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
Numa perspetiva de análise global dos sistemas podemos identificar como principais
pontos problemáticos ao incremento de riscos nestes sistemas:
• Os dados – Problemas na estruturação dos dados, erros de escrita, lapsos na
gestão de dados e julgamento erróneo na fase de treino do modelo podem perpe-
tuar as divisões na sociedade, ao refletirem preconceitos sociais ou informação
tendenciosa, comprometer a justiça, a privacidade, a segurança e a conformidade;
• Problemas tecnológicos;
• Obstáculos à segurança;
• Mau comportamento dos modelos – Resultados tendenciosos, modelos ins-
táveis ou que levam a conclusões para as quais não há recurso acionável para
aqueles afetados pelas suas decisões. Os sistemas com IA são inerentemente
tendenciosos, na medida em que são desenvolvidos por humanos, o que reforça
a dificuldade em alinhar o comportamento dos sistemas atuais com os objetivos
definidos na sua conceção;
• Interações Máquina-Homem – os contextos mais desafiantes são os transpor-
tes, a manufaturação e as infraestruturas, onde já se registaram acidentes e le-
sões humanas.
44
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
45
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
FIGURA 9: IMPACTO DE UMA SOLUÇÃO DE IA NAS VÁRIAS DIMENSÕES SOCIAIS E HUMANAS, TENDO COMO EXEMPLO DE SISTEMA
DE IA UM CHATBOT.
46
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
47
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
5.
RECOMENDAÇÕES
O Controlo Humano
• Controlo humano da tecnologia;
• Controlo humano dos algoritmos;
• Inclusão de rotinas para treino e validação dos mecanismos de aprendizagem;
• Revisão humana de decisões automatizadas - As pessoas devem ser governadas
por pessoas;
• Capacidade de reverter decisões automatizadas.
A Cooperação e Envolvimento
• Empresas de tecnologia de IA;
• Fornecedores de IA para a AP;
• Organizações de utilizadores finais do setor privado;
• Consultoria;
• Especialistas em ética aplicada à IA, tecnologias emergentes e em ciências so-
ciais;
• Equipas multidisciplinares com uma variedade de valências;
• Apoio a start-ups.
48
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
A Privacidade
• Controlo de dados do utilizador;
• Consentimento;
• Recomendação e informação de leis de proteção de dados;
• Capacidade de restringir o processamento;
• Direito à retificação;
• Direito de apagar registo.
A Responsabilidade Profissional
• Colaboração entre atores e stakeholders;
• Design responsável;
• Consideração de efeitos a longo prazo;
• Integridade e excelência científica;
• Precisão por meio de análises aprofundadas em todas as etapas;
• Supervisão externa;
• Qualificar e certificar fornecedores.
A Responsabilização
• Recomendação para novos regulamentos;
• Avaliação de impactos mensuráveis;
• Requisitos para avaliação e auditoria;
• Verificabilidade e replicabilidade;
• Responsabilidade legal;
• Capacidade de intervir;
• Responsabilidade ambiental;
• Criação de órgão de monitorização;
• Correção de decisões automatizadas;
49
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
A Segurança e Proteção
• Mecanismos de confiabilidade;
• Mecanismos de previsibilidade;
• Geração de alarmística;
• Colaboração estreita do Governo com os técnicos e investigadores para investi-
gar, prevenir e mitigar os potenciais usos maliciosos de IA.
A Transparência e Explicabilidade
• Análise de dados recorrendo a código aberto;
• Algoritmos de código aberto;
• Notificação dos utilizadores e/ou beneficiários ao interagirem com IA;
• Notificação quando um sistema de IA toma uma decisão sobre um indivíduo ou
um grupo de indivíduos;
• Requisito de relatórios regulares ao longo de todo o ciclo de vida da solução de IA;
• Direito à informação por parte dos utilizadores e ou beneficiários;
• Aquisição transparente de tecnologia para o Governo;
• Acesso à explicação das decisões tomadas;
• Comunicação à comunidade das mudanças permitidas pela IA.
50
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
51
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
6.
BARREIRAS E DESAFIOS
Constrangimentos financeiros
Iliteracia digital
52
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
7.
FERRAMENTA DE
AVALIAÇÃO DE RISCO
7.1.
OBJETIVOS
7.2.
DESTINATÁRIOS
53
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
• Desenvolvimento inicial;
• Desenvolvimento avançado;
• Testes;
• Protótipo;
• Validação; e Produção.
Procura-se, deste modo, garantir a avaliação ao longo do ciclo do projeto, quer na fase
anterior à implementação (by design), quer na fase posterior (by evolution).
A Ferramenta pode ser preenchida por qualquer pessoa, mesmo que não esteja associada
a uma entidade ou a uma equipa específica do projeto. Esta pode inclusive ser utilizada
por diferentes pessoas da mesma entidade. Como destinatários incluem-se:
• Pessoas externas à entidade;
• Utilizadores;
• Programadores;
• Analistas/ Engenheiros;
• Consultores de IA;
7.3.
BENEFÍCIOS
54
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
7.4.
ARQUITETURA
7.5.
UTILIZAÇÃO
55
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
7.6.
NÍVEL DE MATURIDADE
56
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
Este está relacionado com diferentes estágios de maturidade, ilustrados na figura 13:
1. Uma entidade sem IA, que não possui qualquer tipo de sistema baseado em téc-
nicas adaptativas.
2. Uma entidade com interesse em IA, que tem pesquisado sobre o tema e discute
internamente alguns assuntos, mas não concretizou nenhuma iniciativa com vis-
ta ao desenvolvimento de sistemas baseados em técnicas adaptativas.
3. Uma entidade principiante em IA, que tem ideias e já iniciou, de forma embrioná-
ria, alguns projetos de IA. Os membros da equipa são normalmente pluridiscipli-
nares e estão orientados para a experimentação e visualização de resultados, na
tentativa de perceber se o algoritmo tem interesse e cumpre a função pretendida.
4. Uma entidade que usa IA de forma operacional, que tem normalmente processos
de ML implementados e equipas mais diversificadas em termos de conhecimen-
to. Os algoritmos desenvolvidos são aplicados a casos de utilização concretos e
apoiam de forma efetiva os processos de decisão.
5. Uma entidade que usa IA de forma sistemática, que aplica os pressupostos ante-
riores, suportando-os por princípios de IA, frameworks e standards internacional-
mente reconhecidos.
6. Uma entidade que usa IA de forma responsável, que resulta do desenvolvimento
do estágio antecedente, que segue processos e procedimentos que contribuem,
no mínimo, para a transparência e para a mitigação dos riscos éticos dos siste-
mas.
7.7.
RECOMENDAÇÕES
57
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
7.8.
RELATÓRIO DE AVALIAÇÃO
7.9.
PARTICIPAÇÃO DE PARTES INTERESSADAS
7.10.
PROGRAMA DE AVALIAÇÃO PLURIANUAL
58
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
8.
FONTES
COMPLEMENTARES
Access Now. (2018). Human Rights in the Age of Artificial Intelligence
Adler S. (2019). A Quick Guide to Artificial Intelligence (AI), AI defined in a nutshell for cor-
porate enterprise practitioners. Intelligent Automation network. https://www.intelligen-
tautomation.network/decision-ai/news/a-basic-guide-to-ai
Agência para a Modernização Administrativa. (2018). ESTRATÉGIA TIC 2020 - Estratégia
para a Transformação Digital na Administração Pública
AI Group of experts. (2019). AI applications. OECD. https://www.oecd-ilibrary.org/sites/
eedfee77-en/1/2/3/index.html?itemId=/content/publication/eedfee77-en&_csp_=-
5c39a73676a331d76fa56f36ff0d4aca&itemIGO=oecd&itemContentType=book
Alija A. (2020). Emerging technologies and open data: ARTIFICIAL INTELLIGENCE. Gobier-
no de España, red.es e iniciativa aporta
Altran Group. (2017). Maximizing Value from AI - The digital transformers’ guide. Tessela
Bird, E., Fox-Skelly, J., Jenner, N. et al. (2020). The ethics of artificial intelligence: Issues
and initiatives. Panel for the Future of Science and Technology. European Parliamenta-
ry Research Service. European Union
Burkhardt, R., Hohn, N. and Wigley, C. (2019). Leading your organization to responsible
AI. McKinsey and Company. https://www.mckinsey.com/business-functions/mck-
insey-analytics/our-insights/leading-your-organization-to-responsible-ai#
Center for the study of existential risk. (2020). Risks from Artificial Intelligence. University
of Cambridge. https://www.cser.ac.uk/research/risks-from-artificial-intelligence/
Cheatham, B., Javanmardian, K. and Samandari, H. (2019). Confronting the risks of artifi-
cial intelligence. McKinsey and Company. https://www.mckinsey.com/business-func-
tions/mckinsey-analytics/our-insights/confronting-the-risks-of-artificial-intelligence#
Commissioner for Human Rights. (2019). Unboxing Artificial Intelligence: 10 steps to pro-
tect Human Rights. Council of Europe
Conn, A. (2017). How Do We Align Artificial Intelligence with Human Values?. Future of
Life Institute. https://futureoflife.org/2017/02/03/align-artificial-intelligence-with-hu-
man-values/
Data Flair. (2019). Beware! Criminals are using AI to steal your personal details. https://da-
ta-flair.training/blogs/how-criminals-use-ai/
Declaração Universal dos Direitos Humanos, Diário da República, I Série A, n.º 57/78, de 9
de Março de 1978
59
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
Deloitte AI and Analytics. (2020). Human values in the loop, Design principles for ethical
AI. Deloitte. https://www2.deloitte.com/uk/en/insights/focus/cognitive-technologies/
design-principles-ethical-artificial-intelligence.html
Directorate for Science, Technology and Innovation. (2019). Report – Roles and Responsi-
bilities of Actors: Governance of Digital Security in Organizations and Security of Digital
Technologies. Committee on Digital Economy Policy. Organization for Economic
Co-operation and Development
Español A.G. (2020). Marco ético para la inteligencia artificial en Colombia. Consejería
Presidencial para asuntos económicos y transformación digital.
European Parliament. (2020). The ethics of artificial intelligence: Issues and initiatives.
European Union
Google. (n.d.). Responsible AI practices. https://ai.google/responsibilities/responsi-
ble-ai-practices/
Government Digital Service and Office for Artificial Intelligence. (2019). Understanding
Artificial Intelligence, Ethics and Safety. GOV.UK. https://www.gov.uk/guidance/under-
standing-artificial-intelligence-ethics-and-safety
Government of Canada. (2020) Responsible use of artificial intelligence (AI). https://www.
canada.ca/en/government/system/digital-government/digital-government-innova-
tions/responsible-use-ai.html
Hartwig, B. (2020). The Impact of Artificial Intelligence on Human Rights. Transforming
Data With Intelligence. https://tdwi.org/articles/2020/06/29/adv-all-impact-of-ai-on-
human-rights.aspx
Independent High-Level Expert Group on Artificial Intelligence. (2020). The Assessment
List for Trustworthy Artificial Intelligence (ALTAI), for self-assessment. European Com-
mission. 2020
Kashav, A. (2020). Fairness in A.I. Towards data science. https://towardsdatascience.
com/fairness-in-a-i-5d3ceaaf649
Leslie, D. (2019). Understanding artificial intelligence ethics and safety: A guide for the
responsible design and implementation of AI systems in the public sector. The Alan
Turing Institute
Manyika, J. (2018). Automation and the future of work. McKinsey and Company. https://
www.mckinsey.com/mgi/overview/in-the-news/automation-and-the-future-of-work
Microsoft and Ernst & Young LLP. (2020). Artificial Intelligence in the Public Sector, Portu-
gal - How 213 Public Organizations Benefit from AI. EY
Musikanski, L., Rakova, B., Bradbury, J. et al. (2020). Artificial Intelligence and Community
Well-being: A Proposal for an Emerging Area of Research. Int. Journal of Com. WB 3,
39–55.
NoBIAS. (2020). Artificial Intelligence without Bias. NoBias. https://nobias-project.eu/
Open Data Institute. (2018). Emerging tech and AI. https://theodi.org/topic/emerging-tech
Silberg, J. and Manyika, J. (2019). Tackling bias in artificial intelligence
(and in humans). McKinsey and Company. https://www.mckinsey.com/featured-in-
60
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
sights/artificial-intelligence/tackling-bias-in-artificial-intelligence-and-in-humans#
The Federal Government. (2018). Key points for a Federal Government Strategy on
Artificial Intelligence. Germany
Toreini, E., Aitken, M., Moorsel, A. et.al. (2019). The relationship between trust in AI and
trustworthy machine learning technologies. Proceedings of the 2020 Conference on
Fairness, Accountability, and Transparency. 272–283
61
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
9.
ANEXOS
Anexo A (Figura 1)
A figura apresenta um mapa publicado pelo Observatório de Inovação do Setor Público a 15
de Novembro de 2019, onde os países são classificados em função das Estratégias de IA.
Lista de países com Estratégia de IA completa à data de publicação do mapa: Cana-
dá, Estados Unidos da América, México, Uruguai, Portugal, Espanha, França, Alemanha,
Luxemburgo, Bélgica, Malta, Áustria, Reino Unido, Holanda, Dinamarca, Suécia, Finlândia,
Estónia, Lituânia, Federação Russa, Índia, China, Japão, República da Coreia, Estados Ára-
bes Unidos e China.
Lista de países com Estratégia de IA em elaboração à data de publicação do mapa:
Colômbia, Chile, Argentina, Noruega, Irlanda, Polónia, Eslováquia, Hungria, Croácia, Grécia,
Tunísia, Arábia Saudita, Quénia, Singapura, Malásia, Austrália e Nova Zelândia.
O mapa classifica ainda as abordagens seguidas por país com base em três classes:
a) Estratégia de IA dedicada: Canadá, Finlândia, Itália e Uruguai;
b) Reconhecimento da importância pública da IA, mas com desenvolvimento da
IA focado no sector privado: Estados Unidos da América, Japão e República da
Coreia;
c) Estratégia de IA inserida numa abordagem mais vasta: restantes países anterior-
mente citados.
Anexo B (Figura 2)
A figura, elaborada pelos autores, representa o cruzamento de dois indicadores para o ano
2019:
a) O índice de prontidão para IA, composto por variáveis que medem governança,
infraestrutura de dados, governo e serviços públicos, competências e educação
em IA e
b) O índice global de IA, composto por variáveis que medem implementação, inova-
ção e investimento em IA.
62
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
Anexo C (Figura 3)
A figura, elaborada pelos autores, apresenta o ecossistema de IA em Portugal. Este ecos-
sistema resulta de iniciativas e programas governamentais e da atuação de vários atores.
Iniciativas e programas: SAMA 2020, SIMPLEX, Portugal Digital, INDoDE.2030 e projetos
financiados pela FCT.
Atores: setor público, academia, start-ups, organizações não governamentais, associa-
ções e setor privado.
Anexo D (Figura 4)
A figura, elaborada pelos autores, apresenta o ecossistema de dados em Portugal. Este
ecossistema é enquadrado, em termos normativos, pelo Regulamento Geral sobre a Pro-
teção de Dados e pelo Regulamento Nacional de Interoperabilidade Digital. No cerne do
ecossistema de dados estão quatro elementos: big data, dados, dados abertos e Inte-
roperabilidade na Administração Pública. Estes quatro elementos são superentendidos
por diretivas, normas, leis e pela Constituição; são partes integrantes de políticas de data
security, data ethics e data protection; e estão sujeitos a processos de transformação di-
gital, atendimento, serviços, produtos, predição, simplificação e inovação numa visão que
deve ser data 360º e data-driven. Para o bom funcionamento deste ecossistema de dados,
os seguintes princípios devem ser assegurados: abertos por defeito, digitais por defeito,
estandardizados, interoperáveis, linkable, livre fluxo, once only e sharing and reuse. O ecos-
sistema de dados é dinamizado por entidades do setor privado e do setor público.
Anexo E (Tabela 1)
A tabela sistematiza as leis, diretivas e regulamentos de preservação dos dados governa-
mentais e dos serviços digitais em Portugal. A saber:
63
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
64
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
Anexo F (Figura 5)
A figura, elaborada pelos autores, apresenta os seis V associados ao conceito de big data:
valor, variabilidade, variedade, velocidade, veracidade e volume.
Anexo G (Figura 6)
O gráfico, elaborado pelos autores, apresenta os pontos críticos à vulnerabilidade das di-
mensões em função das etapas de um projeto com IA.
No eixo das ordenadas encontram-se as etapas de um projeto de IA. No eixo das abcissas,
as cinco dimensões da IA Responsável.
Por etapa, as pontuações, numa escala de 1 a 5, são as seguintes:
1) Objetivos do sistema: Responsabilização 1; Transparência 5; Explicabilidade 4;
Justiça 3; Ética 3;
2) Recolha de dados (fonte): Responsabilização 1; Transparência 5; Explicabilidade 1;
Justiça 4; Ética 4;
3) Tratamento/ processamento de dados: Responsabilização 3; Transparência 4; Ex-
plicabilidade 5; Justiça 2; Ética 3;
4) Desenho do algoritmo: Responsabilização 4; Transparência 3; Explicabilidade 4;
Justiça 3; Ética 3;
5) Desenvolvimento e configuração do modelo: Responsabilização 4; Transparência
2; Explicabilidade 4; Justiça 1; Ética 2;
6) Produção do modelo: Responsabilização 4; Transparência 4; Explicabilidade 3;
Justiça 1; Ética 1;
7) Implementação: Responsabilização 5; Transparência 5; Explicabilidade 2; Justiça
4; Ética 4;
65
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
Anexo H (Tabela 2)
A tabela sistematiza o impacto dos artigos da declaração universal dos direitos humanos
em diversos sistemas de inteligência artificial. A saber:
Acesso ao sistema financeiro (scoring de crédito): Direitos e liberdades sem dis-
criminação; Igualdade perante a lei; Ninguém sofrerá intromissões arbitrárias na
vida privada, na família, no domicílio e na correspondência, e ataques à honra e re-
putação; Liberdade de opinião, de expressão e à informação; Liberdade de reunião
e de associação pacíficas; Direito ao trabalho desejado, em condições equitativas
e à fundação e filiação a sindicatos; Direito a um nível de vida adequado; Direito à
educação.
Admissão de candidaturas nas escolas (previsão de sucesso): Igualdade de dig-
nidade e direitos; Direitos e liberdades sem discriminação; Direito à educação.
Algoritmos de indexação de conteúdo e decisão dos resultados em motores de
pesquisa: Liberdade de pensamento, de consciência e de religião; Liberdade de
opinião, de expressão e à informação; Direito de acesso às funções públicas de um
país e liberdade de voto no poder público; Direito à educação; Direito de participa-
ção na vida cultural da comunidade; Nenhum Estado, agrupamento ou indivíduo
poderá destruir os direitos e liberdades enunciados.
Algoritmos que determinam o conteúdo do feed de notícias de um usuário e
com quem o conteúdo é compartilhado: Liberdade de pensamento, de consciên-
cia e de religião; Liberdade de opinião, de expressão e à informação; Direito de
acesso às funções públicas de um país e liberdade de voto no poder público; Direito
à educação; Direito de participação na vida cultural da comunidade.
Anúncios personalizados, baseados no comportamento dos utilizadores: Direi-
tos e liberdades sem discriminação; Liberdade de pensamento, de consciência e
de religião; Liberdade de opinião, de expressão e à informação; Direito de acesso
às funções públicas de um país e liberdade de voto no poder público; Direito de
participação na vida cultural da comunidade.
Armas automatizadas: Direitos e liberdades sem discriminação; Direito à vida, à
liberdade e à segurança pessoal; Proibição da escravatura ou servidão; Igualdade
66
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
perante a lei; Ser livre de prisão, detenção ou exílio arbitrário; Direito a um julgamen-
to público equitativo, independente e imparcial; Direito a ser considerado inocente
até que a sua culpabilidade fique legalmente provada.
Assistência social (por exemplo, ajuda à habitação para pessoas em situação
de sem-abrigo): Igualdade de dignidade e direitos; Direitos e liberdades sem discri-
minação; Ninguém sofrerá intromissões arbitrárias na vida privada, na família, no
domicílio e na correspondência, e ataques à honra e reputação; Direito ao trabalho
desejado, em condições equitativas e à fundação e filiação a sindicatos.
Assistentes virtuais: Direito ao trabalho desejado, em condições equitativas e à
fundação e filiação a sindicatos.
Atribuição de seguros de saúde: Direitos e liberdades sem discriminação; Direito à
vida, à liberdade e à segurança pessoal; Ninguém sofrerá intromissões arbitrárias
na vida privada, na família, no domicílio e na correspondência, e ataques à honra e
reputação; Direito à segurança social; Direito a um nível de vida adequado.
Automatização de funções: Igualdade de dignidade e direitos; Direitos e liberdades
sem discriminação; Direito ao trabalho desejado, em condições equitativas e à fun-
dação e filiação a sindicatos; Direito a um nível de vida adequado.
Biometria no registo de refugiados e recomendação de decisões: Igualdade de
dignidade e direitos; Direitos e liberdades sem discriminação; Direito ao reconhe-
cimento da sua personalidade jurídica; Ser livre de prisão, detenção ou exílio ar-
bitrário; Ninguém sofrerá intromissões arbitrárias na vida privada, na família, no
domicílio e na correspondência, e ataques à honra e reputação; Direito à circulação
livre e entrada e saída do seu país; Direito a uma nacionalidade e liberdade à sua
mudança; Liberdade de pensamento, de consciência e de religião; Direito à segu-
rança social; Direito ao trabalho desejado, em condições equitativas e à fundação
e filiação a sindicatos; Deveres comunitários essenciais ao desenvolvimento com-
pleto e livre dos princípios das Nações Unidas; Nenhum Estado, agrupamento ou
indivíduo poderá destruir os direitos e liberdades enunciados.
Chatbots de influência: Liberdade de pensamento, de consciência e de religião;
Liberdade de opinião, de expressão e à informação; Liberdade de reunião e de as-
sociação pacíficas; Direito de acesso às funções públicas de um país e liberdade
de voto no poder público.
Controlo de pandemias (com dados de saúde e de vigilância digital): Direitos e
liberdades sem discriminação; Direito à vida, à liberdade e à segurança pessoal;
Ninguém sofrerá intromissões arbitrárias na vida privada, na família, no domicílio
e na correspondência, e ataques à honra e reputação; Direito a um nível de vida
adequado.
Cuidados de saúde (robots de substituição de médicos): Igualdade de dignidade
e direitos; Direitos e liberdades sem discriminação; Direito à vida, à liberdade e à
segurança pessoal; Ninguém sofrerá intromissões arbitrárias na vida privada, na
família, no domicílio e na correspondência, e ataques à honra e reputação; Direito
ao trabalho desejado, em condições equitativas e à fundação e filiação a sindica-
tos; Direito a um nível de vida adequado.
Deep fakes: Liberdade de pensamento, de consciência e de religião; Liberdade de
opinião, de expressão e à informação; Direito de acesso às funções públicas de um
país e liberdade de voto no poder público; Direito de participação na vida cultural da
67
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
68
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
69
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
70
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
filiação a sindicatos.
Software de assistência à escrita de informação de disseminação (preparação
de novas histórias ou outros conteúdos): Liberdade de pensamento, de consciên-
cia e de religião; Liberdade de opinião, de expressão e à informação; Direito ao
trabalho desejado, em condições equitativas e à fundação e filiação a sindicatos;
Nenhum Estado, agrupamento ou indivíduo poderá destruir os direitos e liberdades
enunciados; Igualdade de dignidade e direitos; Direitos e liberdades sem discrimi-
nação; Direito à vida, à liberdade e à segurança pessoal; Igualdade perante a lei;
Direito a um julgamento público equitativo, independente e imparcial.
Testes genéticos: Igualdade de dignidade e direitos; Direitos e liberdades sem dis-
criminação; Ninguém sofrerá intromissões arbitrárias na vida privada, na família,
no domicílio e na correspondência, e ataques à honra e reputação; Direito ao casa-
mento e a constituir família; Direito ao trabalho desejado, em condições equitativas
e à fundação e filiação a sindicatos; Direito ao trabalho desejado, em condições
equitativas e à fundação e filiação a sindicatos.
Tradutores virtuais: Direito ao trabalho desejado, em condições equitativas e à
fundação e filiação a sindicatos.
Triagem de saúde geral e reprodutiva: Igualdade de dignidade e direitos; Direitos
e liberdades sem discriminação; Ninguém sofrerá intromissões arbitrárias na vida
privada, na família, no domicílio e na correspondência, e ataques à honra e repu-
tação; Direito ao casamento e a constituir família; Direito ao trabalho desejado, em
condições equitativas e à fundação e filiação a sindicatos.
Vigilância com reconhecimento facial (drones de vigilância): Ninguém sofrerá
intromissões arbitrárias na vida privada, na família, no domicílio e na correspon-
dência, e ataques à honra e reputação; Direito à circulação livre e entrada e saída
do seu país; Direito a asilo num outro país, em perseguição; Direito de participação
na vida cultural da comunidade.
Vigilância com reconhecimento facial em locais de votação: Direitos e liberda-
des sem discriminação; Liberdade de pensamento, de consciência e de religião;
Liberdade de opinião, de expressão e à informação; Direito de acesso às funções
públicas de um país e liberdade de voto no poder público; Direito de participação na
vida cultural da comunidade; Nenhum Estado, agrupamento ou indivíduo poderá
destruir os direitos e liberdades enunciados.
Anexo I (Figura 7)
A figura ilustra os elementos a ter em conta na garantia de uma IA inclusiva e que conside-
re todos na sociedade. Os elementos, por ordem de importância são: Humanidade, Estado
e Organização.
Anexo J (Figura 8)
A figura apresenta os aspetos a ter em conta para uma IA inclusiva e que inclua todos na
sociedade. A saber: classe social, orientação sexual, género, afiliações, local onde vive,
situação migratória, identidade, situação de saúde/ clínica, nacionalidade, grupos vulnerá-
veis, pessoas com deficiência, cor da pele, religião e etnia.
71
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
Anexo K (Figura 9)
A figura apresenta um sistema de IA que consiste num chatbot, permitindo evidenciar
um exemplo de classificação dos possíveis impactos nas várias dimensões sociais e
humanas.
Impacto positivo: solidariedade, cultura e propriedade.
Impacto neutro: movimento, julgamento justo, religião, lazer, nacionalidade, saúde, edu-
cação, família, proteção, responsabilidade, dignidade, liberdade, reparação, trabalho, asilo,
democracia, personalidade jurídica, participação, direitos humanos e bem-estar.
Impacto nefasto: integridade, equidade, justiça, expressão, vida e privacidade.
72
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
73
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
74
GUIA PARA A INTELIGÊNCIA ARTIFICIAL ÉTICA, TRANSPARENTE E RESPONSÁVEL
AGRADECIMENTOS
Das várias pessoas que contribuíram para a elaboração deste documento, queremos
destacar, pelos seus contributos e revisões: o Prof. Dr. Fernando Buarque, o Prof. Dr. Luís
Janeiro, o Eng.º Mário Nogueira e o Eng.º Raúl Martins.
75
Rua de Santa Marta, 55
1150-294 Lisboa | Portugal
guia@ama.pt