Posted by & filed under Artigos.

A inteligência artificial tornou-se uma das tecnologias mais relevantes para empresas e governos nas últimas décadas. Sistemas capazes de analisar grandes volumes de dados e automatizar processos vêm sendo aplicados em áreas como finanças, saúde, segurança pública, marketing e gestão empresarial.

Ao mesmo tempo, a adoção dessas ferramentas levanta novos desafios jurídicos e regulatórios. Decisões automatizadas podem impactar direitos fundamentais, especialmente quando há falta de transparência nos algoritmos ou ausência de supervisão humana adequada.

Diante desse cenário, diferentes países têm desenvolvido estruturas regulatórias para orientar o uso responsável da inteligência artificial. Este artigo analisa os principais riscos associados a essas tecnologias e apresenta os mecanismos de governança previstos no AI Act europeu e no Projeto de Lei nº 2338/2023 no Brasil.

Principais riscos do uso de inteligência artificial

A inteligência artificial foi inicialmente apresentada como uma tecnologia capaz de promover avanços significativos na produtividade e na eficiência de diversos setores da economia. A promessa de automatização de tarefas repetitivas, otimização de processos industriais e ampliação da capacidade de análise de dados contribuiu para a rápida adoção desses sistemas em escala global. Entretanto, sua implementação também levanta desafios relacionados à governança tecnológica, gestão de riscos e impactos sociais.

Um dos aspectos frequentemente discutidos envolve os impactos ambientais associados ao funcionamento de grandes modelos computacionais. O treinamento e a operação de sistemas avançados de IA demandam elevada capacidade de processamento e consumo energético significativo, o que pode ampliar a pegada de carbono da infraestrutura digital.

Outro ponto relevante refere-se aos impactos no mercado de trabalho e na dinâmica competitiva entre empresas. A automação pode gerar ganhos de eficiência organizacional, mas também exige processos de requalificação profissional e adaptação das estruturas produtivas.

Além disso, empresas que possuem acesso a grandes volumes de dados e infraestrutura tecnológica avançada tendem a obter vantagens competitivas no desenvolvimento de soluções baseadas em inteligência artificial. Esse cenário pode gerar assimetrias de mercado e desafios relacionados à preservação da livre concorrência.

Para as organizações, esses fatores tornam a governança em inteligência artificial um tema estratégico, especialmente no que se refere à gestão de riscos, à conformidade regulatória e à tomada de decisões relacionadas ao uso dessas tecnologias.

Dados e algoritmos na governança da inteligência artificial

Os sistemas de inteligência artificial dependem diretamente de grandes volumes de dados para seu funcionamento. Esses dados são utilizados para treinar algoritmos, identificar padrões e gerar previsões ou recomendações automatizadas.

Entretanto, a coleta e utilização desses dados podem envolver informações pessoais e comportamentais dos usuários, levantando preocupações relacionadas à privacidade, proteção de dados e autonomia informacional.

Em determinados contextos, bases de dados incompletas ou enviesadas podem gerar resultados discriminatórios ou decisões automatizadas com impactos negativos sobre indivíduos e grupos sociais.

Outro desafio relevante diz respeito à complexidade técnica desses sistemas. Muitos modelos operam com estruturas computacionais altamente sofisticadas, o que pode dificultar a compreensão sobre como determinadas decisões são tomadas. Esse fenômeno, frequentemente associado à chamada “caixa-preta algorítmica”, pode gerar dificuldades em processos de auditoria, responsabilização e controle.

Por essa razão, programas de governança em inteligência artificial costumam incorporar mecanismos de transparência, explicabilidade e rastreabilidade dos sistemas, permitindo maior supervisão e monitoramento das decisões automatizadas.

O AI Act europeu como referência regulatória

O AI Act da União Europeia representa uma das iniciativas regulatórias mais abrangentes voltadas à inteligência artificial no cenário internacional. O regulamento busca estabelecer diretrizes para o desenvolvimento e uso dessas tecnologias, conciliando inovação tecnológica com a proteção de direitos fundamentais.

Entre os valores protegidos pelo regulamento estão a dignidade da pessoa humana, a proteção de dados pessoais, a transparência tecnológica e a prevenção de práticas discriminatórias decorrentes do uso de sistemas algorítmicos.

O modelo regulatório adotado pelo AI Act baseia-se na classificação de risco das aplicações de inteligência artificial. Nesse modelo, sistemas considerados de baixo risco estão sujeitos a obrigações regulatórias mais simples, enquanto aplicações classificadas como de alto risco devem cumprir requisitos mais rigorosos relacionados à documentação técnica, transparência e supervisão humana.

Além disso, o regulamento prevê sanções administrativas relevantes em caso de descumprimento das obrigações estabelecidas, reforçando a importância da governança tecnológica para organizações que desenvolvem ou utilizam sistemas de inteligência artificial.