Publicações
Quando a decisão deixa de ser humana? Os impactos da inteligência artificial e o papel do Compliance.
24/04/2026
O avanço da IA impacta a cognição humana e exige novas abordagens de governança e compliance.
O avanço da inteligência artificial tem provocado transformações relevantes na forma como decisões são tomadas. Mais do que um movimento tecnológico, trata-se de uma mudança que atinge diretamente a forma como indivíduos e organizações estruturam o raciocínio e avaliam alternativas.
Nesse cenário, o impacto da tecnologia sobre a cognição humana passa a ocupar um papel central. Como destacado em Homo Deus, de Yuval Harari, tecnologias como inteligência artificial, biotecnologia e big data desafiam conceitos tradicionais como trabalho, identidade e consciência. Ao longo da história, a capacidade cognitiva sempre foi moldada pelas ferramentas disponíveis em cada período.
A questão que se coloca, portanto, não é apenas sobre o uso dessas tecnologias, mas sobre seus efeitos na forma como decisões são construídas. Este artigo analisa os impactos da inteligência artificial na cognição e nas relações humanas, bem como o papel da governança e do compliance diante desses desafios.
Ao longo da história, a relação entre cognição e tecnologia pode ser observada de diversas formas. O domínio do fogo, por exemplo, representou um mecanismo do qual a humanidade se tornou dependente e que contribuiu fortemente para o desenvolvimento de suas capacidades. Da mesma forma, a escrita possibilitou a organização e a articulação do pensamento.
Atualmente, observa-se um cenário marcado por um fenômeno de “excesso de confiança” em sistemas de inteligência artificial. Nesse contexto, indivíduos passam a depender dessas ferramentas para estruturar ideias e tomar decisões, muitas vezes sem questionar as informações fornecidas pelas ferramentas. Como consequência, a necessidade de elaboração crítica fica reduzida.
Embora haja o entendimento de que a inteligência artificial promove eficiência, o uso excessivo pode impactar processos cognitivos fundamentais, especialmente no que se refere ao desenvolvimento do pensamento crítico a longo prazo.
O processo de tomada de decisão é baseado em fatores como incerteza, memória, percepção e compreensão social. Nesse sentido, quando decisões passam a ser amparadas por sistemas que operam com base em padrões e processamento de dados, cria-se um distanciamento em relação aos elementos humanos. A IA não experimenta incertezas, ao contrário, funciona de forma a organizar informações e apresentar resultados que transmitam segurança aos usuários.
Além disso, a tecnologia pode contribuir para a formação de uma bolha social, pois os sistemas reforçam percepções pré-existentes com base em padrões propagados pela sociedade. Por mais que haja ganhos de eficiência e um maior acesso à informação, há o risco de redução de empatia e qualidade das interações humanas quando essas são mediadas predominantemente por sistemas tecnológicos.

A utilização de sistemas de inteligência artificial em ambientes corporativos também levanta questionamentos relevantes. Diversas áreas já adaptaram suas atividades para processos automatizados, como por exemplo, recrutamento e seleção de candidatos. Contudo, há a necessidade de definir quais as responsabilidades em caso de eventuais padrões discriminatórios durante os processos. Isso pode ocorrer porque tais ferramentas operam com base em dados que poderão refletir preconceitos da sociedade. Dessa forma, há o risco de agravamento de vieses já presentes na sociedade.
Paralelamente, o uso excessivo e sem supervisão pode envolver riscos relacionados à proteção de dados e à privacidade. Todas as informações, independentemente de quais sejam, podem ser utilizadas pelos sistemas para treinar e modelar sistemas de IA futuros, de modo que tudo que é compartilhado entre chatbot e usuário tende a ter uma finalidade. Esses compartilhamentos excessivos colocam em risco a cibersegurança dos usuários, já que os dados podem ser invadidos e utilizados por pessoas mal-intencionadas para fraudar, roubar identidades ou causar prejuízos reputacionais.
Diante desse cenário, torna-se necessária a adoção de mecanismos de controle e governança capazes de estruturar o uso da inteligência artificial nas organizações. Nesse contexto, o Compliance assume papel relevante como um mecanismo de mediação entre tecnologia e o ser humano. A atuação do Compliance envolve a implementação de políticas e treinamentos voltados à conscientização sobre os riscos associados ao uso de IA, especialmente no que se refere ao compartilhamento de informações sensíveis. Além disso, programas de proteção de dados e cibersegurança tornam-se essenciais para mitigar riscos e garantir conformidade com a legislação aplicável.
O Compliance poderá ser ferramenta essencial para evitar que valores discriminatórios sejam reforçados pelos sistemas de IA, através do estabelecendo de políticas eficazes contra discriminação, garantia de diálogo aberto entre as organizações e os indivíduos, criação de Comitês especializados, além de mecanismos de controle para supervisionar o uso das IAs. Nesse sentido, o Compliance contribui na gestão do uso dessas tecnologias, promovendo maior segurança jurídica e operacional nas atividades empresariais.
O avanço da inteligência artificial representa uma transformação relevante na relação entre tecnologia, cognição e tomada de decisão. Ao mesmo tempo em que promove eficiência, também levanta desafios relacionados à autonomia cognitiva, às relações humanas e à governança.
Nesse contexto, a adoção de práticas estruturadas de compliance torna-se fundamental para mitigar riscos e orientar o uso responsável dessas tecnologias. A compreensão desses impactos permite que empresas adotem abordagens mais equilibradas, alinhando inovação tecnológica à preservação de valores fundamentais nas relações humanas e organizacionais.
Sophia Genari Enriquez
[email protected]