Para o topo
SIGA:
Perfil Facebook
Perfil Instagram
Youtube
Perfil Linkedin

Artigos

Ética em Inteligência Artificial

Por: Fatima Raimondi, Paulo Feldmann, Sandra Sinicco e Sergio Maria são membros da Comissão de Futuro da Governança do IBGC
Data de publicação: 10/04/2026

A inteligência artificial (IA) tornou-se um dos pilares estratégicos da transformação organizacional contemporânea, oferecendo oportunidades sem precedentes de aumentar a eficiência e a velocidade da inovação. Como consequência, vemos que também vêm aumentando de forma exponencial os riscos e os desafios éticos.

Em um ambiente corporativo em rápida evolução, os conselhos empresariais desempenham um papel decisivo na governança responsável da IA, especialmente em seus momentos embrionários, para que o seu uso siga os princípios da boa gestão, garantindo a transparência e a sustentabilidade das empresas.

A ética em IA emerge não como um adendo burocrático, mas como a base da governança corporativa que pretende ser legítima e garantir a resiliência da organização.

Estamos nos referindo ao conjunto de valores e princípios que orientam o desenvolvimento, a implementação e o uso de IA para promover ações justas, responsáveis e alinhadas ao bem comum. Para tanto, é crucial que os Conselhos se capacitem e compreendam as especificidades deste impacto que a tecnologia está e vai causar e incorporem essa compreensão às suas práticas de supervisão e decisão.

A ética aplicada à IA baseia-se em múltiplos eixos interdependentes e fundamentais: transparência, justiça e mitigação de vieses, proteção de dados e letramento digital

Recomendações Práticas para os Conselhos Empresariais

A responsabilidade corporativa e a accountability reforçam que não basta implementar tecnologias avançadas sem acompanhar suas consequências. A atuação dos Conselhos deve ir além da definição de princípios abstratos. Deve se traduzir em práticas concretas, tais como:

Estabelecimento de políticas claras: Criar, promover e atualizar diretrizes do uso ético da IA alinhadas às normas internacionais e ao contexto regulatório brasileiro, com ênfase em transparência, justiça, diversidade e inclusão.

Formação de comitês multidisciplinares: A governança ética da IA requer comitês dedicados, multidisciplinares e autônomos para monitorar riscos e garantir a aderência aos princípios éticos estabelecidos.

Envolvimento dos stakeholders: Considerar não apenas objetivos econômicos, mas também ambientais e sociais é fundamental. Manter canais transparentes de diálogo com clientes, colaboradores e parceiros sobre o uso de IA e seus impactos fortalece a confiança e a legitimidade das decisões tomadas nestes âmbitos. 

Capacitação continuada: promover uma educação contínua focada nos aspectos técnicos, éticos e regulatórios da IA é imperativo para que se possa interpretar riscos, desafios e oportunidades com profundidade. É importante destacar que essa responsabilidade deve ser compartilhada entre a empresa – que identifica as novas competências como essenciais para evolução dos seus negócios – e o conselheiro, que deve buscar continuamente oportunidades de desenvolvimento pessoal para o adequado cumprimento da sua responsabilidade fiduciária.

Finalmente, os Conselhos devem cultivar uma cultura organizacional que valorize o diálogo aberto sobre dilemas éticos, a integridade e a responsabilidade social, especialmente diante dos dilemas éticos emergentes a partir do uso massivo da IA.

É imprescindível que existam espaços para conversas maduras, transparentes e contínuas. Não se trata apenas de compliance formal, mas de internalizar valores éticos que permeiam todas as decisões, ações e relações da empresa.

A liderança pelo exemplo, canais seguros para denúncias e processos transparentes são indispensáveis para consolidar uma governança ética que vá além do discurso.

Ao adotar tais práticas, os Conselhos empresariais estarão mais bem preparados para garantir que a inteligência artificial contribua para o crescimento sustentável das organizações, respeitando direitos, valores humanos e promovendo a inovação com responsabilidade.


[1] Explicabilidade (ou Explainability) é a capacidade de entender e justificar como um sistema de Inteligência Artificial (IA) chegou a uma decisão ou resultado, traduzindo seu “raciocínio” para uma linguagem clara para humanos, sendo fundamental para construir confiança, garantir ética e viabilizar o uso responsável de IAs complexas (as “caixas pretas”) em diversas áreas.

Publicado em: Site do IBGC - Instituto Brasileiro de Governança Corporativa - https://ibgcondemand.org/etica-em-inteligencia-artificial/
VOLTAR
Compartilhe:
Av. Paulista, 726, 13º andar, conjunto 1303
Bela Vista - Caixa Postal 700
São Paulo - SP
CEP: 01310-100
Whatsapp: (11) 94726-0594
SIGA:
Facebook
Perfil Instagram
Youtube
Linkedin
© Copyright 2026 - Pensamento Nacional das Bases Empresariais. Todos os direitos reservados. Política de privacidade