São Paulo Publicações
Confira o novo artigo escrito pelo escritório de advocacia GTLawyers: Governança de TI e os desafios éticos da Inteligência Artificial

Como a governança de TI pode mitigar vieses algorítmicos, garantir transparência no uso da IA e equilibrar inovação com proteção de dados e direitos.
Resumo: A Governança de TI possui papel central na mitigação de vieses algorítmicos na IA, ao implementar processos e práticas que sejam éticos, auditáveis e transparentes. Contudo, o grande desafio é equilibrar a inovação tecnológica com a proteção de dados e os direitos dos titulares. Quando implementadas de forma eficaz, essas práticas reforçam a conformidade legal e ética, promovendo equidade e responsabilidade social, sem prejudicar a competitividade das empresas.
Palavras-chave: Governança de TI; Inteligência Artificial; Vieses algorítmicos.
Abstract: IT Governance plays a central role in mitigating algorithmic biases in AI by implementing processes and practices that are ethical, auditable, and transparent. However, the major challenge is balancing technological innovation with data protection and the rights of data subjects. When implemented effectively, these practices enhance legal and ethical compliance, promoting fairness and social responsibility without compromising business competitiveness.
Keywords: IT Governance; Artificial Intelligence; Algorithmic Biases.
O uso crescente de algoritmos no tratamento de dados pessoais pela inteligência artificial (IA) tem sido tema central nos debates sobre ética e implicações sociais ao redor do mundo. Embora ofereçam eficiência significativa, esses algoritmos frequentemente reproduzem preconceitos sociais incorporados nos dados de treinamento (i.e., informações usadas para seu desenvolvimento), o que resulta em uma discriminação sistêmica. Em decisões automatizadas para concessão de crédito, por exemplo, a IA pode favorecer grupos já privilegiados, reforçando desigualdades preexistentes.
É nesse contexto que a governança de tecnologia da informação (TI) assume um papel fundamental para mitigar esses vieses. Através da adoção de práticas éticas e mecanismos robustos de supervisão das operações de IA, é possível promover um uso mais transparente, equitativo e responsável de algoritmos, minimizando riscos e protegendo os direitos dos indivíduos assegurados pelas legislações de diversas jurisdições e favorecendo decisões automatizadas mais justas.
O que são vieses algorítmicos e quais são as implicações éticas relacionadas?
Vieses algorítmicos são distorções nos resultados de sistemas de IA devido a preconceitos presentes nos dados utilizados para treiná-los. Em outras palavras, se os dados históricos usados para treinar um sistema de IA forem tendenciosos sobre determinado grupo racial ou socioeconômico, o algoritmo é capaz de reproduzir esse viés.
Um clássico exemplo ocorre em processos de recrutamento: quando um algoritmo é treinado com dados que favorecem candidatos de um determinado perfil, pode desconsiderar talentos de grupos subrepresentados, perpetuando a discriminação. A esse respeito, destaca-se um estudo realizado em 2022 utilizando o ChatGPT 3.5, que revelou que nomes associados a candidatos negros tinham menor probabilidade de serem selecionados em comparação a nomes de candidatos brancos ou asiáticos, reforçando desigualdades no mercado de trabalho.
Nesse sentido, é fundamental que as empresas busquem não só uma coleta de dados mais ampla, com representatividade nos conjuntos de dados, mas também implementem uma sólida governança de TI para combater o viés algorítmico, como será analisado a seguir.
A Governança de TI no combate aos vieses algorítmicos e as dificuldades para sua implementação
A mitigação de vieses algorítmicos pode ser realizada por meio da implementação de uma sólida governança de TI, que se trata da adoção de um conjunto de processos, políticas e práticas para gerenciamento de riscos, garantindo o uso ético dos dados e aprimorando o desempenho e a segurança das operações tecnológicas.
Essa implementação pode se dar pela criação de comitês de ética dedicados à IA, supervisão humana e monitoria contínua dos dados de treinamento, principalmente por meio de auditorias, bem como pela contratação de desenvolvedores de dados de diferentes origens para promoção da diversidade.
Por outro lado, a tarefa para que sistemas de IA sejam explicáveis e auditáveis não é fácil, pois envolve diversos desafios técnicos e operacionais. Primeiro pela própria complexidade dos modelos de IA, especialmente os baseados em aprendizado profundo (deep learning). Em segundo lugar, porque a documentação completa e acessível do desenvolvimento de algoritmos requer conhecimento técnico específico, sendo que muitas empresas carecem de especialistas internos com a expertise necessária e até mesmo de verba e tempo suficientes para a contratação de especialistas externos.
Nesse mesmo sentido, a transparência na divulgação de informações a stakeholders impactados pode ser mais complexa quando o uso de dados pessoais é realizado por empresas que possuem segredos comerciais. A Lei Geral de Proteção de Dados brasileira (LGPD), assim como o General Data Protection Regulation (GDPR) da União Europeia, por exemplo, estabelecem que o tratamento de dados deve ser realizado de forma transparente, a fim de que os titulares dos dados tenham pleno conhecimento de como suas informações estão sendo utilizadas. O cumprimento de tais determinações legais, nesse contexto, poderia comprometer a proteção de tais segredos comerciais.
Adicionalmente, a preocupação com o uso de IA tem sido alvo de preocupação em diversos países: na União Europeia, entrou em vigor este ano o AI Act, cujo objetivo principal é estabelecer um arcabouço jurídico para o desenvolvimento, colocação no mercado, entrada em serviço e utilização dos sistemas de IA. O AI Act busca garantir, de forma simultânea, a proteção dos direitos fundamentais e apoio à inovação, estabelece requisitos mais ou menos rigorosos de compliance a depender do nível e risco relacionado ao uso de IA, além de prever que os desenvolvedores deverão utilizar dados representativos e realizar auditorias regulares para a garantia de transparência.
No mesmo sentido, encontra-se em discussão no Congresso dos EUA o projeto de lei Algorithmic Accountability Act, que propõe que empresas que utilizam IA em setores de alto risco sejam obrigadas a realizar auditorias regularmente. No Brasil também está em trâmite o Projeto de Lei nº 2.338/2023, com foco na segurança, transparência e proteção dos direitos fundamentais durante o uso e desenvolvimento do IA.
Nota-se, dessa forma, que, em que pese a existência de desafios consideráveis para a implementação de uma governança de TI, essa medida é imprescindível para a segurança na utilização dos algoritmos e, sobretudo, para que haja um equilíbrio entre inovação, responsabilidade ética e conformidade com leis atuais e futuras sobre o tema.
Conclusão
O uso de algoritmos no tratamento de dados pessoais tem sido cada vez mais crescente, tendo gerado inúmeros debates sobre ética e implicações sociais ao reproduzirem preconceitos sociais incorporados nos dados de treinamento.
Nesse cenário, a implementação de uma governança robusta de TI é necessária não apenas para promover um desenvolvimento sustentável e inclusivo, como também para proteger os direitos dos indivíduos.
Ainda que haja desafios consideráveis, medidas como auditorias, diversidade nas equipes e criação de comitês de ética, asseguram que as decisões automatizadas serão justas e estarão em conformidade com a LGPD, o GDPR, o AI Act e futuros regulamentos sobre IA do Brasil e dos Estados Unidos, sem comprometer a competitividade empresarial.
Artigo originalmente publicado na revista Fronteiras Digitais – Perspectivas Multidisciplinares em Cibersegurança, Privacidade e Inteligência Artificial, edição de 2025, uma realização da Câmara de Comércio Brasil-Canadá (CCBC) e da Associação Nacional dos Profissionais de Privacidade de Dados (APDADOS), p. 44.
Referências bibliográficas
ÁVILA, Gustavo Noronha de e CORAZZA, Thaís Aline Mazetto. Os Vieses Algorítmicos Na Função Decisória Dos Sistemas De Inteligência Artificial.
Revista da AJURIS – Porto Alegre, v. 49, n. 152, Junho, 2022.
BUOLAMWINI, Joy. Conclusão apresentada por em uma palestra em 2016 no TED Talks. Disponível em: www.ted.com/talks/joy_buolamwini_how_i_m_fighting_bias_in_algorithms
GARCIA, Allen. The Continuity of Barriers: How AI Job Recruiters Discriminate.
Disponível em: harvardtechnologyreview. com/2024/09/15/the-continuity-of-barriers-how-ai-job-recruiters-discriminate/.
GOOGLE AI. Responsible AI practices. Disponível em: ai.google/responsibility/responsible-ai-practices/
Lei de Inteligência Artificial da União Europeia. Disponível em: www.europarl.europa.eu doceo/document/TA-9-2024-0138_EN.pdf.
OBLADEN, Cinthia. A obscuridade dos algoritmos e a LGPD. Disponível em: www.inpd.com. br/post/a-obscuridade-dos-algoritmos-e-a-lgpd
MALUF, Gabriela de Britto. Governança de dados: o papel da ética digital. Disponível em: https:// uplexis.com.br/blog/artigos/governanca-de-dados-o-papel-da-etica-digital/.
MARCÍLIO, Thiago. Quatro polêmicas sobre o projeto que regula a inteligência artificial. Disponível em: www.conjur.com.br/2024-fev-29/quatro-polemicas-sobre-o-projeto-que-regula-a-inteligencia-artificial/.
YIN, Leon, ALBA, Davey and NICOLETTI, Leonardo. OpenAI’s GPT Is a Recruiter’s Dream Tool. Tests Show There’s Racial Bias. Disponível em: https://www.bloomberg.com/graphics/2024-openai-gpt-hiring-racial-discrimination/?embedded-checkout=true&leadSource=uverify%20 wall.