The President

futuro

A ética invisível

futuro

A ética invisível

Adotar sistemas de IA exige governança, transparência e equidade para que decisões automatizadas não comprometam direitos e dignidade

Por Redação

Retrato Silvia Piva, COO e sócia do GHBP Advogados

Mais de dois terços da população mundial acreditam que produtos e serviços baseados em inteligência artificial transformarão significativamente a vida cotidiana nos próximos três a cinco anos, segundo o AI Index Report 2025, da Universidade de Stanford. Ao mesmo tempo, uma pesquisa global realizada pela consultoria Harris Poll em 2025 aponta que 37% das empresas consideram os vieses nos modelos de IA um dos principais riscos de sua adoção — ficando atrás apenas das preocupações com privacidade e proteção de dados.

Esses números indicam que a verdadeira fronteira da inovação tecnológica não está apenas no desenvolvimento de novos algoritmos, mas na ética da automação: no modo como as máquinas são treinadas, nos critérios humanos que definem seus parâmetros e nas consequências que suas decisões geram na vida das pessoas.

A advogada e pesquisadora Silvia Piva, COO e sócia do GHBP Advogados, tem se dedicado a compreender essas interseções entre tecnologia, ética e governança. Com trajetória acadêmica no Instituto de Estudos Avançados da USP, ela defende que o avanço da inteligência artificial deve se ancorar em um princípio que permanece inegociável: a dignidade humana.

“A dignidade humana é um princípio fundamental, portanto, significa que as empresas devem olhar para a origem dos dados com o mesmo rigor com que olham para seus balanços”, afirma. Para Piva, os dados não são neutros — carregam as marcas das desigualdades do mundo real e podem reproduzir preconceitos quando utilizados sem reflexão crítica.

Ela exemplifica com o setor de seguros: quando um modelo de IA é treinado apenas com informações de clientes de baixo índice de sinistros e perfis concentrados em determinadas regiões ou profissões, o sistema tende a classificar automaticamente outros grupos como mais arriscados. “O viés não surge da IA em si, mas das escolhas humanas sobre quais dados são ‘bons’ para serem utilizados e quais ficam de fora”, observa. Por isso, boas práticas devem incluir revisão contínua dos dados, diversidade nas equipes responsáveis por classificá-los e mecanismos de correção capazes de conectar tecnologia e impacto humano.

Da reação à prevenção

O uso ético da inteligência artificial, na visão de Piva, não deve depender de crises de reputação nem da pressão regulatória. Ele precisa ser incorporado ao próprio ciclo de gestão corporativa. “Empresas que utilizam a IA de forma responsável não devem esperar que o problema apareça na mídia para agir, tampouco depender da regulação para incorporar práticas consistentes”, ressalta.
A advogada defende que a revisão das decisões automatizadas se torne rotina — tão natural quanto a análise de desempenho ou o acompanhamento de indicadores financeiros. Isso implica trabalho conjunto entre tecnologia, jurídico, compliance, recursos humanos e áreas de negócio, desde o desenho dos sistemas até sua operação.

Um bom exemplo são os processos seletivos automatizados que rejeitam candidatos de uma mesma região ou faixa socioeconômica. Trocar o modelo de IA não basta, portanto. Devem-se reformular as perguntas que orientam a seleção. Quais critérios realmente medem competência? Que variáveis reproduzem preconceitos históricos? O mesmo raciocínio vale para sistemas de crédito baseados apenas em histórico de inadimplência, que tendem a penalizar quem nunca teve acesso ao crédito formal. “É preciso compreender os mecanismos institucionais que perpetuam exclusões”, enfatiza.

A busca por produtividade e economia de tempo é um dos principais motores da adoção de IA. No entanto, Silvia Piva alerta que eficiência não pode ser o único critério de sucesso tecnológico. “Usar IA com responsabilidade começa por reconhecer que eficiência não é a única visão a ser considerada”, afirma.
Para que a automação gere valor de forma sustentável, as empresas precisam desenvolver fluxos de governança com papéis e limites claros. Piva recomenda medidas simples, como a criação de comitês de avaliação de projetos de IA antes da implementação, revisões periódicas de modelos em auditorias internas e capacitação de gestores para questionar resultados automatizados. “A busca por velocidade não pode sacrificar princípios como o da transparência”, reforça.
Essas práticas, segundo ela, ajudam a consolidar uma cultura organizacional que entende a ética não como uma imposição regulatória, mas como fator estratégico de confiança e longevidade.

Liderança e cultura organizacional

A responsabilidade sobre o uso da inteligência artificial não deve ficar restrita às áreas técnicas. Para Piva, a liderança precisa conduzir o debate ético e integrar diferentes perspectivas dentro das empresas. “A responsabilidade sobre o uso da IA deve começar na liderança, mas não termina nela”, diz.
Ela destaca o caráter sociotécnico da IA — um sistema que transforma simultaneamente processos, decisões e relações humanas. Por isso, o tema deve ser debatido por equipes diversas, envolvendo jurídico, compliance, negócios e pessoas. Cabe à liderança fazer as perguntas essenciais: por que usar IA neste contexto? O que muda na relação com o cliente e com o time? Quem revisa as decisões e responde pelos impactos?

Quando essas questões passam a fazer parte da rotina corporativa, a IA deixa de ser um projeto isolado e passa a refletir a estratégia e os valores da organização. “A tecnologia precisa ser confrontada com as pessoas que ela afeta”, conclui.

Os dados e alertas recentes reforçam a urgência de uma abordagem ética. A inteligência artificial está moldando o presente com uma velocidade sem precedentes — e cada algoritmo é, antes de tudo, um espelho das escolhas humanas. A ética da IA, portanto, não se programa: se pratica.
O futuro das organizações dependerá menos da capacidade de prever tendências e mais da coragem de agir de forma justa, transparente e responsável no presente.