Alan Duarte
Mestrando em Direito (Universidade Federal do Ceará). Advogado na área de Direito Civil, Proteção de Dados Pessoais e Direito Digital. Pós-graduado em Direito, Tecnologia e Inovação, com ênfase em Proteção de Dados Pessoais.
less
Related Authors
Vitor Sousa Freitas
Universidade Federal de Goiás
Natália Lisbôa
Universidade Federal de Ouro Preto
Marcia M. Santos Souza Fernandes
Universidade Estadual do Ceara
Isabella Madruga da Cunha
Universidade Federal do Paraná
InterestsView All (9)
Uploads
Books by Alan Duarte
Se por um lado, os sistemas baseados em alguma das técnicas abarcadas pelo conceito de Inteligência Artificial prometem e até entregam diversas soluções inovadoras e mais eficientes, reduzindo custos e aumentando a precisão em diversas tarefas, sobretudo de cunho analítico; por outro, percebeu-se que tais algoritmos são capazes de incorporar uma semântica da discriminação — seja pela baixa qualidade e representatividade dos dados com base nos quais há o aprendizado, seja pelos critérios de sucesso e demais métricas adotadas — colocando em xeque direitos fundamentais e humanos.
Nesse contexto, faz-se necessário investigar o que são e como funcionam esses sistemas, bem como compreender a maneira pela qual passam a produzir resultados prejudiciais contra grupos minoritários e, ainda, com base nessa compreensão, localizar o papel do direito — enquanto mecanismo regulatório — na construção de um sistema de governança robusto, capaz de lidar com as discriminações perpetradas por algoritmos aprendizes. Para esse debate, é também essencial compreender como o fenômeno discriminatório é apreendido e enfrentado pelo Ordenamento Jurídico, de modo a construir uma solução mais adequada ao contexto brasileiro.
A fim de melhor compreender o problema e analisar algumas as possíveis soluções, a obra se divide em três capítulos centrais: a primeira se destina a investigar o que é a Inteligência Artificial, de modo a distanciá-la das ideias extremistas e focar o debate no que existe hoje. O segundo capítulo preocupa-se em uma análise de como os algoritmos de IA se tornam discriminatórios, além de investigar como o Direito brasileiro compreende a discriminação. Por fim, no terceiro capítulo investiga-se as repercussões do direito à não-discriminação, enquanto
direito fundamental, além de investigar e propor um entrelaçamento de
normatividades, técnica e jurídica, pautada na dimensão objetiva dos direitos fundamentais, culminando em um sistema de autorregulação regulada.
Papers by Alan Duarte
tecnológico, marcado pela presença cada vez mais constante e aparente
de algoritmos inteligentes que apresentam inúmeras facilidades para
aqueles que deles se utilizam. Os algoritmos computacionais invadiram
a vida cotidiana sem, todavia, dar tempo aos seus usuários para refletir
acerca de seu uso e consequências. Nesse sentido, percebe-se a
necessidade de uma discussão acerca do paradigma utilizado, isto é, da
maneira pela qual se organiza o conhecimento e a partir do qual se
encontram soluções para os problemas que surgem. Assim, a presente
pesquisa se insere no campo da epistemologia e inteligência artificial e tem como pergunta central: como e em que medida uma reforma
paradigmática, epistemológica, portanto, faz-se (des)necessária para a
construção de um sistema de governança algorítmica que fortaleça, ou
pelo menos não enfraqueça, os direitos fundamentais? A metodologia é
de natureza qualitativa, teórica, bibliográfica e explicativa. Valeu-se
também dos métodos sistêmico e indutivo. Concluiu-se que o
paradigma de conhecimento simplista e cartesiano, atualmente
adotado, não é adequado para solucionar os problemas decorrentes do
uso de algoritmos inteligentes. Diante disso, o Pensamento Complexo,
conforme apresentado por Edgar Morin, apresenta-se como uma
alternativa viável à construção de uma governança algorítmica
adequada.
Se por um lado, os sistemas baseados em alguma das técnicas abarcadas pelo conceito de Inteligência Artificial prometem e até entregam diversas soluções inovadoras e mais eficientes, reduzindo custos e aumentando a precisão em diversas tarefas, sobretudo de cunho analítico; por outro, percebeu-se que tais algoritmos são capazes de incorporar uma semântica da discriminação — seja pela baixa qualidade e representatividade dos dados com base nos quais há o aprendizado, seja pelos critérios de sucesso e demais métricas adotadas — colocando em xeque direitos fundamentais e humanos.
Nesse contexto, faz-se necessário investigar o que são e como funcionam esses sistemas, bem como compreender a maneira pela qual passam a produzir resultados prejudiciais contra grupos minoritários e, ainda, com base nessa compreensão, localizar o papel do direito — enquanto mecanismo regulatório — na construção de um sistema de governança robusto, capaz de lidar com as discriminações perpetradas por algoritmos aprendizes. Para esse debate, é também essencial compreender como o fenômeno discriminatório é apreendido e enfrentado pelo Ordenamento Jurídico, de modo a construir uma solução mais adequada ao contexto brasileiro.
A fim de melhor compreender o problema e analisar algumas as possíveis soluções, a obra se divide em três capítulos centrais: a primeira se destina a investigar o que é a Inteligência Artificial, de modo a distanciá-la das ideias extremistas e focar o debate no que existe hoje. O segundo capítulo preocupa-se em uma análise de como os algoritmos de IA se tornam discriminatórios, além de investigar como o Direito brasileiro compreende a discriminação. Por fim, no terceiro capítulo investiga-se as repercussões do direito à não-discriminação, enquanto
direito fundamental, além de investigar e propor um entrelaçamento de
normatividades, técnica e jurídica, pautada na dimensão objetiva dos direitos fundamentais, culminando em um sistema de autorregulação regulada.
tecnológico, marcado pela presença cada vez mais constante e aparente
de algoritmos inteligentes que apresentam inúmeras facilidades para
aqueles que deles se utilizam. Os algoritmos computacionais invadiram
a vida cotidiana sem, todavia, dar tempo aos seus usuários para refletir
acerca de seu uso e consequências. Nesse sentido, percebe-se a
necessidade de uma discussão acerca do paradigma utilizado, isto é, da
maneira pela qual se organiza o conhecimento e a partir do qual se
encontram soluções para os problemas que surgem. Assim, a presente
pesquisa se insere no campo da epistemologia e inteligência artificial e tem como pergunta central: como e em que medida uma reforma
paradigmática, epistemológica, portanto, faz-se (des)necessária para a
construção de um sistema de governança algorítmica que fortaleça, ou
pelo menos não enfraqueça, os direitos fundamentais? A metodologia é
de natureza qualitativa, teórica, bibliográfica e explicativa. Valeu-se
também dos métodos sistêmico e indutivo. Concluiu-se que o
paradigma de conhecimento simplista e cartesiano, atualmente
adotado, não é adequado para solucionar os problemas decorrentes do
uso de algoritmos inteligentes. Diante disso, o Pensamento Complexo,
conforme apresentado por Edgar Morin, apresenta-se como uma
alternativa viável à construção de uma governança algorítmica
adequada.