Descubra como a inteligência artificial (IA) está transformando a gestão financeira. Foto: AdobeStock
O relógio marca 10h32 em uma segunda-feira qualquer. Um algoritmo de inteligência artificial interpreta de maneira pessimista um relatório de um grande banco. Em 0,3 segundo, vende bilhões de dólares em ações. Outros 200 algoritmos detectam o movimento e fazem o mesmo. A porta de saída fica estreita e, às 10h33, o mercado global está em queda livre. Às 10h35, quando os humanos entendem o que aconteceu, já é tarde: trilhões de dólares evaporaram.
Seria esse cenário factível? Especialistas ouvidos pela Broadcast divergem. Enquanto alguns veem a IA como potencial aceleradora de movimentos de manada, outros defendem que a velocidade do sistema pode atuar como arma de defesa, com algoritmos capazes de detectar riscos mais rapidamente do que qualquer humano. Por essa lógica, uma crise como a descrita acima não aconteceria.
Saber se a IA será escudo ou gatilho de uma nova crise financeira global dependerá do cuidado e da supervisão humana. Disso ninguém discorda. Mas ainda há pontos cegos nesse processo.
Para o professor André Filipe Batista, especialista em ciência de dados e coordenador do Centro de Ciência de Dados do Insper, a próxima crise financeira, na era da IA, tende a ter três características centrais: velocidade, opacidade e interconexão algorítmica.
“O mercado financeiro já é rápido por natureza. Com a IA tomando decisões automatizadas, a transição de uma preocupação para um estado de pânico pode acontecer em segundos”, afirma, sobre a questão da velocidade, que se mostra crucial no mercado financeiro, no confronto com outros segmentos.
A segunda característica é a opacidade dos modelos, o chamado problema da caixa-preta.
“Alguns chamam de ‘caixa cinza’, porque ainda se entendem os mecanismos matemáticos, mas a explicabilidade é complexa. Em uma crise, essa falta de transparência pode ser fatal”, explica.
O terceiro ponto é a homogeneização das estratégias. Fundos diferentes podem usar modelos semelhantes, treinados com bases de dados parecidas. Diante de um mesmo sinal, todos correm para a mesma porta, provocando um efeito de manada que afeta a liquidez do mercado. “Assim, a crise disparada pela IA seria uma crise informacional”, afirma Batista.
Deepfakes e notícias sintéticas
O cenário se agrava com a proliferação de deepfakes e notícias sintéticas. Vídeos falsos de CEOs, autoridades ou líderes políticos podem circular em minutos, influenciando investidores humanos e sistemas automatizados. Quando se descobre que era falso, o estrago já foi feito.
A executiva Ticiana Amorim, CEO da Aarin, hub especializado em Pix e embedded finance do grupo Bradesco, acrescenta outro elemento: a possibilidade de a própria IA estar no centro de uma nova bolha financeira.
“Existe hoje uma hipervalorização de empresas de IA semelhante ao que vimos na bolha das pontocom. Investem-se bilhões em data centers e infraestrutura sem que ainda se conheça claramente a margem de lucro real dessas operações”, afirma.
Para ela, a próxima crise tende a ser menos óbvia no início e muito mais rápida na propagação, devido às automações e à circulação acelerada de informações. Há ainda o risco de tratar a IA como fonte de verdade, quando ela é apenas uma ferramenta de interpretação de dados.
“As pessoas perguntam coisas à IA e tomam a resposta como verdade absoluta. No mercado financeiro, isso é especialmente perigoso”, diz, lembrando que as crises são sempre inéditas e que os modelos, por definição, se baseiam no passado.
Nesse sentido, o evento realmente disruptivo costuma ser aquele que não está nos dados, como descreve a teoria do Cisne Negro, de Nassim Taleb. Foi o caso da crise deflagrada pela covid-19, em 2020.
Publicidade
Segundo Batista, se os modelos forem treinados em períodos de estabilidade, podem subestimar eventos extremos, criando uma falsa sensação de segurança e levando a decisões de superalavancagem, em um cenário que lembra, de forma ampliada e acelerada, a crise de 2008.
“Se há poucas crises no histórico, a IA pode aprender que eventos extremos são quase impossíveis e tomar decisões baseadas nessa falsa segurança”, afirma.
Você, leitor, achou pessimista? Não é assim que os profissionais encaram a descrição dos riscos. O que talvez não esteja sendo observado é que a IA não reduz o trabalho humano.
“Ela ajuda a entender nuances e complexidades, mas exige mais supervisão. Teremos IA tomando decisões melhores em alguns pontos, mas a crise nasce quando deixamos isso muito solto. Se trabalharmos velocidade, opacidade e interconexão algorítmica, minimizamos as chances de novas crises”, diz Batista.
IA como ferramenta de prevenção
O diretor de Inovação, Produtos, Serviços e Segurança da Febraban, Ivo Mósca, adota uma visão mais otimista. Para ele, a IA amplia a capacidade de prever riscos e pode ajudar a evitar desde fraudes cotidianas até crises financeiras globais.
“Antes, um pesquisador levava meses para testar uma hipótese. Hoje, é possível simular milhares de cenários em minutos”, afirma.
Segundo ele, essa modelagem permite identificar sinais de alerta antes que o efeito manada se instale.
Em meio à velocidade dos pagamentos instantâneos e dos fluxos globais de capital, aumenta a volatilidade. Mósca sustenta que a própria IA pode funcionar como freio, desde que bem orientada e supervisionada. “O risco não está na tecnologia em si, mas na forma como ela é usada”, diz.
Apesar das diferenças, há consenso de que a IA não elimina a necessidade de supervisão humana. Assim, uma eventual crise não seria causada pelas máquinas, mas por humanos que delegaram a elas mais do que deveriam ou abriram mão da governança.
“Não tenho dúvidas de que a IA pode tomar decisões melhores do que as humanas em muitos aspectos. O problema começa quando a gente deixa isso muito solto”, conclui André Batista, que defende a construção de uma “arquitetura de confiança em inteligência artificial”.