Academia.eduAcademia.edu

Dos "dados abertos" perante os modelos de IA

Subsídios para os "Diálogos disruptivos", acarreando alguns tópicos e incitamentos ("prompts") para a investigação, para os Seminários de Metodologia e Ciência do Direito Administrativo do Curso de Doutoramento em Ciências Jurídicas - Ramo: Ciências Jurídicas Públicas. Escola de Direito da Universidade do Minho. Dia 6 de janeiro de 2025.

Curso de Doutoramento em Ciências Jurídicas - Ramo: Ciências Jurídicas Públicas Seminários de Metodologia e Ciência do Direito Administrativo Subsídios para os Diálogos disruptivos: Dos "dados abertos" perante os modelos de IA acarreando alguns tópicos e incitamentos (prompts) para a investigação em especial, no respeitante à proteção dos dados pessoais Dia 6 de janeiro de 2025 Manuel David Masseno 1 Dos "dados abertos"… 1 – o(s) problema(s)      também na Administração Pública, começa a ser corrente o recurso à IA – Inteligência Artificial para o acesso e reutilização dos cidadãos e das organizações à informação disponível, em termos interativos em especial através dos Sistemas de Inteligência Artificial Generativa (IAGen / "GenAI"), sobretudo assentes de GML / LLM - Grandes Modelos de Linguagem, obtidas através de incitamentos ("Prompts"), sobretudo de natureza verbal, como o ChatGPT, o Gemini, o LLaMA, o Claude, o Mistral ou, no futuro, o Amália (!) o que pressupõe a inserção dos dados, pessoais e não pessoais, legitimamente disponíveis nas Instituições, inclusive na sequência de partilhas interadministrativas, nos modelos, tanto para treino quanto para resposta às interações com os utilizadores, sempre dentro dos limites da legalidade porém, como veremos em seguida, as respostas específicas não se encontram no Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024, que cria regras harmonizadas em matéria de inteligência artificial […] (Regulamento da Inteligência Artificial), salvo no que se refere ao dever de transparência externa quanto à utilização da tecnologia e à promoção interna da "literacia no domínio da IA" (Art.ºs 50.º e 4.º, assim como os Considerando (134) e (20)) atendendo ao tempo facultado, nesta intervenção ficar-nos-emos pela Proteção de Dados Pessoais 2 Dos "dados abertos"… 2 – as fontes     em rigor, a questão não é nova, remontando às repostas a serem dadas perante os Megadados ("Big Data"), no âmbito da IA lógica / simbólica, e, no essencial, passa pela "anonimização" dos dados pessoais, incluindo técnicas suficientemente robustas para prevenirem a reidentificação de dados anonimizados e / ou a identificabilidade também a partir de dados não pessoais assim, na Diretiva (UE) 2019/1024 do Parlamento Europeu e do Conselho, de 20 de junho de 2019, relativa aos dados abertos e à reutilização de informações do setor público (Art.ºs 1.º n.º 4, 2.º 7), assim como Considerandos (16) e (52)), transposta pela Lei n.º 68/2021, de 26 de agosto (Art.ºs 3.º a) e h) (!), 19.º n.º 11 e 20.º c)) e, depois, no Regulamento (UE) 2022/868 do Parlamento Europeu e do Conselho, de 30 de maio de 2022, relativo à governação europeia de dados e que altera o Regulamento (UE) 2018/1724 (Regulamento Governação de Dados) (Art.ºs 5.º n.º 3 a) i) e Considerandos (7) a (9) e (15)) [o qual é "aplicável a partir de 24 de setembro de 2023"… (Art.º 38.º (!))] mas, tendo em atenção que a "anonimização" é um tratamento de dados pessoais, aplicando-se o Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados (Regulamento Geral sobre a Proteção de Dados – RGPD), o que exigirá a realização, e a repetição, de avaliações de impacto e a informação específica aos titulares (Art.ºs 35.º e 12.º a 14.º), "desde a conceção e por defeito", sob a responsabilidade dos responsáveis (Art.ºs 24.º, 25.º e 5.º n.º 2) 3 Dos "dados abertos"… 3 – e o Soft Law     desde o Parecer n.º 7/2003, de 12 de dezembro, sobre a reutilização de informações do setor público e a proteção dos dados pessoais, tendo por objeto a aplicação da Diretiva 2003/98/CE de 17 de novembro de 2003, o Grupo de Trabalho do Artigo 29.º – GT 29 (Atual CEPD – Comité Europeu para a Proteção de Dados), tem vindo a sublinhar a necessidade de atender aos riscos relativos à identificabilidade dos titulares dos dados relativamente a procedimentos que não tornem irreversíveis a anonimização, mesmo perante a evolução das tecnologias (Art.º 35.º n.º 1 e Considerando (26) e (30) do RGPD) assim também no Parecer n.º 6/2013, de 5 de junho, sobre dados abertos e reutilização de informações do setor público (ISP), a propósito da que veio a ser a Diretiva 2013/37/UE do Parlamento Europeu e do Conselho, de 26 de junho de 2013, e, no Parecer conjunto 3/2021 do CEPD e da AEPD – Autoridade Europeia para a Proteção de Dados sobre a Proposta de Regulamento Governação de Dados, de 10 de março / 9 de junho, e, mais em geral no Parecer n.º 5/2014, de 10 de abril, sobre as técnicas de anonimização, analisadas aprofundadamente entretanto, no que se refere ao nosso objeto específico, foi proferido o Parecer n.º 28/2024, de 18 de dezembro, sobre certos aspetos da proteção de dados relacionados com o tratamento de dados pessoais no contexto da IA, no qual a anonimização volta a assumir uma relevância nuclear, completando o sentido do Parecer conjunto 5/2021, também com a AEPD, de 18 de junho de 2021, sobre a Proposta […] de Regulamento da Inteligência Artificial, até em função dos desenvolvimentos posteriores da IAGen 4