Leia a última edição
--°C | Apucarana
Euro
--
Dólar
--

Economia

publicidade
ECONOMIA

Escudo ou gatilho? Papel da IA na próxima crise financeira ainda é incerto

Compartilhar no Facebook Compartilhar no Twitter Compartilhar no WhatsApp Compartilhar no Telegram
Siga-nos Seguir no Google News
Grupos do WhatsApp

Receba notícias no seu Whatsapp Participe dos grupos do TNOnline

O relógio marca 10h32 em uma segunda-feira qualquer. Um algoritmo de inteligência artificial interpreta de maneira pessimista um relatório de um grande banco. Em 0,3 segundo, vende bilhões de dólares em ações. Outros 200 algoritmos detectam o movimento e fazem o mesmo. A porta de saída fica estreita e, às 10h33, o mercado global está em queda livre. Às 10h35, quando os humanos entendem o que aconteceu, já é tarde: trilhões de dólares evaporaram.

Seria esse cenário factível? Especialistas ouvidos pelo Broadcast (sistema de notícias em tempo real do Grupo Estado) divergem. Enquanto alguns veem a IA como potencial aceleradora de movimentos de manada, outros defendem que a velocidade do sistema pode atuar como arma de defesa, com algoritmos capazes de detectar riscos mais rapidamente do que qualquer humano. Por essa lógica, uma crise como a descrita acima não aconteceria.

CONTINUA DEPOIS DA PUBLICIDADE
Associe sua marca ao jornalismo sério e de credibilidade, anuncie no TNOnline.

Saber se a IA será escudo ou gatilho de uma nova crise financeira global dependerá do cuidado e da supervisão humana. Disso ninguém discorda. Mas ainda há pontos cegos nesse processo.

Para o professor André Filipe Batista, especialista em ciência de dados e coordenador do Centro de Ciência de Dados do Insper, a próxima crise financeira, na era da IA, tende a ter três características centrais: velocidade, opacidade e interconexão algorítmica.

"O mercado financeiro já é rápido por natureza. Com a IA tomando decisões automatizadas, a transição de uma preocupação para um estado de pânico pode acontecer em segundos", afirma, sobre a questão da velocidade, que se mostra crucial no mercado financeiro, no confronto com outros segmentos.

CONTINUA DEPOIS DA PUBLICIDADE

A segunda característica é a opacidade dos modelos, o chamado problema da caixa-preta. "Alguns chamam de 'caixa cinza', porque ainda se entendem os mecanismos matemáticos, mas a explicabilidade é complexa. Em uma crise, essa falta de transparência pode ser fatal", explica.

O terceiro ponto é a homogeneização das estratégias. Fundos diferentes podem usar modelos semelhantes, treinados com bases de dados parecidas. Diante de um mesmo sinal, todos correm para a mesma porta, provocando um efeito de manada que afeta a liquidez do mercado. "Assim, a crise disparada pela IA seria uma crise informacional", afirma Batista.

Deepfakes e notícias sintéticas

CONTINUA DEPOIS DA PUBLICIDADE

O cenário se agrava com a proliferação de deepfakes e notícias sintéticas. Vídeos falsos de CEOs, autoridades ou líderes políticos podem circular em minutos, influenciando investidores humanos e sistemas automatizados. Quando se descobre que era falso, o estrago já foi feito.

A executiva Ticiana Amorim, CEO da Aarin, hub especializado em Pix e embedded finance do grupo Bradesco, acrescenta outro elemento: a possibilidade de a própria IA estar no centro de uma nova bolha financeira.

"Existe hoje uma hipervalorização de empresas de IA semelhante ao que vimos na bolha das pontocom. Investe-se bilhões em data centers e infraestrutura sem que ainda se conheça claramente a margem de lucro real dessas operações", afirma.

CONTINUA DEPOIS DA PUBLICIDADE

Para ela, a próxima crise tende a ser menos óbvia no início e muito mais rápida na propagação, devido às automações e à circulação acelerada de informações. Há ainda o risco de tratar a IA como fonte de verdade, quando ela é apenas uma ferramenta de interpretação de dados.

"As pessoas perguntam coisas à IA e tomam a resposta como verdade absoluta. No mercado financeiro, isso é especialmente perigoso", diz, lembrando que as crises são sempre inéditas e que os modelos, por definição, se baseiam no passado.

Nesse sentido, o evento realmente disruptivo costuma ser aquele que não está nos dados, como descreve a teoria do Cisne Negro, de Nassim Taleb. Foi o caso da crise deflagrada pela covid-19, em 2020.

CONTINUA DEPOIS DA PUBLICIDADE

Segundo Batista, se os modelos forem treinados em períodos de estabilidade, podem subestimar eventos extremos, criando uma falsa sensação de segurança e levando a decisões de superalavancagem, em um cenário que lembra, de forma ampliada e acelerada, a crise de 2008.

"Se há poucas crises no histórico, a IA pode aprender que eventos extremos são quase impossíveis e tomar decisões baseadas nessa falsa segurança", afirma.

Você, leitor, achou pessimista? Não é assim que os profissionais encaram a descrição dos riscos. O que talvez não esteja sendo observado é que a IA não reduz o trabalho humano.

CONTINUA DEPOIS DA PUBLICIDADE

"Ela ajuda a entender nuances e complexidades, mas exige mais supervisão. Teremos IA tomando decisões melhores em alguns pontos, mas a crise nasce quando deixamos isso muito solto. Se trabalharmos velocidade, opacidade e interconexão algorítmica, minimizamos as chances de novas crises", diz Batista.

IA como ferramenta de prevenção

O diretor de Inovação, Produtos, Serviços e Segurança da Febraban, Ivo Mósca, adota uma visão mais otimista. Para ele, a IA amplia a capacidade de prever riscos e pode ajudar a evitar desde fraudes cotidianas até crises financeiras globais.

CONTINUA DEPOIS DA PUBLICIDADE

"Antes, um pesquisador levava meses para testar uma hipótese. Hoje, é possível simular milhares de cenários em minutos", afirma. Segundo ele, essa modelagem permite identificar sinais de alerta antes que o efeito manada se instale.

Em meio à velocidade dos pagamentos instantâneos e dos fluxos globais de capital aumenta a volatilidade, Mósca sustenta que a própria IA pode funcionar como freio, desde que bem orientada e supervisionada. "O risco não está na tecnologia em si, mas na forma como ela é usada", diz.

Apesar das diferenças, há consenso de que a IA não elimina a necessidade de supervisão humana. Assim, uma eventual crise não seria causada pelas máquinas, mas por humanos que delegaram a elas mais do que deveriam ou abriram mão da governança.

CONTINUA DEPOIS DA PUBLICIDADE

"Não tenho dúvidas de que a IA pode tomar decisões melhores do que as humanas em muitos aspectos. O problema começa quando a gente deixa isso muito solto", conclui André Batista, que defende a construção de uma "arquitetura de confiança em inteligência artificial".

Gostou da matéria? Compartilhe!

Compartilhar no Facebook Compartilhar no Twitter Compartilhar no WhatsApp Compartilhar no Email

Últimas em Economia

publicidade

Mais lidas no TNOnline

publicidade

Últimas do TNOnline