Publicações
Governança em Inteligência Artificial e Desafios Regulatórios.
13/03/2026
O avanço da inteligência artificial amplia riscos jurídicos e exige mecanismos de governança para uso responsável da tecnologia.
A inteligência artificial tornou-se uma das tecnologias mais relevantes para empresas e governos nas últimas décadas. Sistemas capazes de analisar grandes volumes de dados e automatizar processos vêm sendo aplicados em áreas como finanças, saúde, segurança pública, marketing e gestão empresarial.
Ao mesmo tempo, a adoção dessas ferramentas levanta novos desafios jurídicos e regulatórios. Decisões automatizadas podem impactar direitos fundamentais, especialmente quando há falta de transparência nos algoritmos ou ausência de supervisão humana adequada.
Diante desse cenário, diferentes países têm desenvolvido estruturas regulatórias para orientar o uso responsável da inteligência artificial. Este artigo analisa os principais riscos associados a essas tecnologias e apresenta os mecanismos de governança previstos no AI Act europeu e no Projeto de Lei nº 2338/2023 no Brasil.
A inteligência artificial foi inicialmente apresentada como uma tecnologia capaz de promover avanços significativos na produtividade e na eficiência de diversos setores da economia. A promessa de automatização de tarefas repetitivas, otimização de processos industriais e ampliação da capacidade de análise de dados contribuiu para a rápida adoção desses sistemas em escala global. Entretanto, sua implementação também levanta desafios relacionados à governança tecnológica, gestão de riscos e impactos sociais.
Um dos aspectos frequentemente discutidos envolve os impactos ambientais associados ao funcionamento de grandes modelos computacionais. O treinamento e a operação de sistemas avançados de IA demandam elevada capacidade de processamento e consumo energético significativo, o que pode ampliar a pegada de carbono da infraestrutura digital.
Outro ponto relevante refere-se aos impactos no mercado de trabalho e na dinâmica competitiva entre empresas. A automação pode gerar ganhos de eficiência organizacional, mas também exige processos de requalificação profissional e adaptação das estruturas produtivas.
Além disso, empresas que possuem acesso a grandes volumes de dados e infraestrutura tecnológica avançada tendem a obter vantagens competitivas no desenvolvimento de soluções baseadas em inteligência artificial. Esse cenário pode gerar assimetrias de mercado e desafios relacionados à preservação da livre concorrência.
Para as organizações, esses fatores tornam a governança em inteligência artificial um tema estratégico, especialmente no que se refere à gestão de riscos, à conformidade regulatória e à tomada de decisões relacionadas ao uso dessas tecnologias.
Os sistemas de inteligência artificial dependem diretamente de grandes volumes de dados para seu funcionamento. Esses dados são utilizados para treinar algoritmos, identificar padrões e gerar previsões ou recomendações automatizadas.
Entretanto, a coleta e utilização desses dados podem envolver informações pessoais e comportamentais dos usuários, levantando preocupações relacionadas à privacidade, proteção de dados e autonomia informacional.
Em determinados contextos, bases de dados incompletas ou enviesadas podem gerar resultados discriminatórios ou decisões automatizadas com impactos negativos sobre indivíduos e grupos sociais.
Outro desafio relevante diz respeito à complexidade técnica desses sistemas. Muitos modelos operam com estruturas computacionais altamente sofisticadas, o que pode dificultar a compreensão sobre como determinadas decisões são tomadas. Esse fenômeno, frequentemente associado à chamada “caixa-preta algorítmica”, pode gerar dificuldades em processos de auditoria, responsabilização e controle.
Por essa razão, programas de governança em inteligência artificial costumam incorporar mecanismos de transparência, explicabilidade e rastreabilidade dos sistemas, permitindo maior supervisão e monitoramento das decisões automatizadas.
O AI Act da União Europeia representa uma das iniciativas regulatórias mais abrangentes voltadas à inteligência artificial no cenário internacional. O regulamento busca estabelecer diretrizes para o desenvolvimento e uso dessas tecnologias, conciliando inovação tecnológica com a proteção de direitos fundamentais.
Entre os valores protegidos pelo regulamento estão a dignidade da pessoa humana, a proteção de dados pessoais, a transparência tecnológica e a prevenção de práticas discriminatórias decorrentes do uso de sistemas algorítmicos.
O modelo regulatório adotado pelo AI Act baseia-se na classificação de risco das aplicações de inteligência artificial. Nesse modelo, sistemas considerados de baixo risco estão sujeitos a obrigações regulatórias mais simples, enquanto aplicações classificadas como de alto risco devem cumprir requisitos mais rigorosos relacionados à documentação técnica, transparência e supervisão humana.
Além disso, o regulamento prevê sanções administrativas relevantes em caso de descumprimento das obrigações estabelecidas, reforçando a importância da governança tecnológica para organizações que desenvolvem ou utilizam sistemas de inteligência artificial.

No Brasil, o debate sobre a regulamentação da inteligência artificial tem se intensificado nos últimos anos. Nesse contexto, o Projeto de Lei nº 2338/2023 surge como uma das principais iniciativas voltadas à criação de um marco regulatório nacional para o desenvolvimento e uso dessas tecnologias.
A proposta estabelece princípios, direitos e deveres aplicáveis aos agentes que desenvolvem, fornecem ou utilizam sistemas de inteligência artificial. Entre os fundamentos previstos no projeto estão a centralidade da pessoa humana, a proteção da privacidade e dos dados pessoais, a promoção da igualdade e da não discriminação, além da garantia de transparência e responsabilidade no uso de tecnologias automatizadas.
Assim como o modelo europeu, o projeto brasileiro também adota uma abordagem baseada na classificação de risco das aplicações de inteligência artificial. Sistemas considerados de alto risco, como aqueles utilizados em processos de seleção de candidatos, concessão de crédito, reconhecimento facial ou diagnósticos médicos, estarão sujeitos a exigências regulatórias mais rigorosas.
O projeto também prevê medidas administrativas em caso de descumprimento das normas, incluindo advertências, multas, publicização da infração e a possibilidade de suspensão parcial ou total da operação de determinados sistemas de inteligência artificial.
Diante da evolução das iniciativas regulatórias, torna-se cada vez mais relevante que empresas adotem estruturas internas de governança em inteligência artificial.
Entre as práticas frequentemente recomendadas estão a realização de avaliações de impacto antes da implementação de determinados sistemas, a elaboração de relatórios de impacto algorítmico para aplicações classificadas como de maior risco e a adoção de mecanismos de transparência nos processos automatizados.
Relatórios de impacto algorítmico, transparência nos processos automatizados, supervisão humana e comitês internos de governança são alguns dos instrumentos utilizados para mitigar riscos associados ao uso da inteligência artificial.
Outro elemento importante é a supervisão humana em decisões automatizadas que possam gerar impactos relevantes sobre direitos individuais. Em determinadas situações, deve existir a possibilidade de revisão humana das decisões tomadas por sistemas de inteligência artificial.
Além disso, muitas organizações têm criado comitês internos de governança tecnológica responsáveis por acompanhar o desenvolvimento, a implementação e a utilização de sistemas de inteligência artificial dentro da organização, avaliando riscos, impactos regulatórios e eventuais efeitos sobre direitos fundamentais.
A inteligência artificial representa uma transformação significativa na forma como organizações tomam decisões, processam informações e desenvolvem soluções tecnológicas.
Ao mesmo tempo, a adoção crescente dessas ferramentas exige estruturas de governança capazes de equilibrar inovação, segurança jurídica e proteção de direitos fundamentais.
Iniciativas regulatórias como o AI Act europeu e o Projeto de Lei nº 2338/2023 indicam uma tendência global de regulamentação baseada em avaliação de riscos, transparência e supervisão humana.
Nesse contexto, a governança em inteligência artificial passa a ser um elemento estratégico para empresas que desenvolvem ou utilizam essas tecnologias. Mais do que um obstáculo à inovação, estruturas adequadas de governança contribuem para reduzir riscos regulatórios, fortalecer a confiança institucional e promover o desenvolvimento tecnológico responsável.
Sophia Genari Enriquez
[email protected]