
A inteligência artificial (IA) tornou-se um dos pilares estratégicos da transformação organizacional contemporânea, oferecendo oportunidades sem precedentes de aumentar a eficiência e a velocidade da inovação. Como consequência, vemos que também vêm aumentando de forma exponencial os riscos e os desafios éticos.
Em um ambiente corporativo em rápida evolução, os conselhos empresariais desempenham um papel decisivo na governança responsável da IA, especialmente em seus momentos embrionários, para que o seu uso siga os princípios da boa gestão, garantindo a transparência e a sustentabilidade das empresas.
A ética em IA emerge não como um adendo burocrático, mas como a base da governança corporativa que pretende ser legítima e garantir a resiliência da organização.
Estamos nos referindo ao conjunto de valores e princípios que orientam o desenvolvimento, a implementação e o uso de IA para promover ações justas, responsáveis e alinhadas ao bem comum. Para tanto, é crucial que os Conselhos se capacitem e compreendam as especificidades deste impacto que a tecnologia está e vai causar e incorporem essa compreensão às suas práticas de supervisão e decisão.
A ética aplicada à IA baseia-se em múltiplos eixos interdependentes e fundamentais: transparência, justiça e mitigação de vieses, proteção de dados e letramento digital
Recomendações Práticas para os Conselhos Empresariais
A responsabilidade corporativa e a accountability reforçam que não basta implementar tecnologias avançadas sem acompanhar suas consequências. A atuação dos Conselhos deve ir além da definição de princípios abstratos. Deve se traduzir em práticas concretas, tais como:
Estabelecimento de políticas claras: Criar, promover e atualizar diretrizes do uso ético da IA alinhadas às normas internacionais e ao contexto regulatório brasileiro, com ênfase em transparência, justiça, diversidade e inclusão.
Formação de comitês multidisciplinares: A governança ética da IA requer comitês dedicados, multidisciplinares e autônomos para monitorar riscos e garantir a aderência aos princípios éticos estabelecidos.
Envolvimento dos stakeholders: Considerar não apenas objetivos econômicos, mas também ambientais e sociais é fundamental. Manter canais transparentes de diálogo com clientes, colaboradores e parceiros sobre o uso de IA e seus impactos fortalece a confiança e a legitimidade das decisões tomadas nestes âmbitos.
Capacitação continuada: promover uma educação contínua focada nos aspectos técnicos, éticos e regulatórios da IA é imperativo para que se possa interpretar riscos, desafios e oportunidades com profundidade. É importante destacar que essa responsabilidade deve ser compartilhada entre a empresa – que identifica as novas competências como essenciais para evolução dos seus negócios – e o conselheiro, que deve buscar continuamente oportunidades de desenvolvimento pessoal para o adequado cumprimento da sua responsabilidade fiduciária.
Finalmente, os Conselhos devem cultivar uma cultura organizacional que valorize o diálogo aberto sobre dilemas éticos, a integridade e a responsabilidade social, especialmente diante dos dilemas éticos emergentes a partir do uso massivo da IA.
É imprescindível que existam espaços para conversas maduras, transparentes e contínuas. Não se trata apenas de compliance formal, mas de internalizar valores éticos que permeiam todas as decisões, ações e relações da empresa.
A liderança pelo exemplo, canais seguros para denúncias e processos transparentes são indispensáveis para consolidar uma governança ética que vá além do discurso.
Ao adotar tais práticas, os Conselhos empresariais estarão mais bem preparados para garantir que a inteligência artificial contribua para o crescimento sustentável das organizações, respeitando direitos, valores humanos e promovendo a inovação com responsabilidade.
[1] Explicabilidade (ou Explainability) é a capacidade de entender e justificar como um sistema de Inteligência Artificial (IA) chegou a uma decisão ou resultado, traduzindo seu “raciocínio” para uma linguagem clara para humanos, sendo fundamental para construir confiança, garantir ética e viabilizar o uso responsável de IAs complexas (as “caixas pretas”) em diversas áreas.