Onipresentes nos escritórios de bancos, corretoras e gestoras de todo o planeta, os terminais de informações financeiras da Bloomberg se viram, no passado recente, diante de uma ameaça nascida longe de Wall Street. Conhecido por sua pletora de dados, comandos de operação bizantinos e design antiquado — tudo ao custo de dezenas de milhares de dólares ao ano —, o equipamento da Bloomberg passou a ser desafiado por chatbots de inteligência artificial paridos pelo Vale do Silício. Afinal, ChatGPTs e afins respondem a qualquer pergunta, em qualquer idioma, em linguagem de gente, com visual “limpo” e, não raro, de graça. Como reagir a isso? Com sua própria oferta de IA generativa, sugere Sebastian Gehrmann.
- LEIA MAIS: Inteligência artificial só serve se gerar valor para empresa, diz líder global da Accenture
- Dasa dobra aposta em IA e vai usar Watson da IBM para marcar exames mais rápido
O alemão é o chefe de “IA responsável” da Bloomberg, trabalhando sob o guarda-chuva da diretoria de tecnologia (CTO) da companhia. PhD em Ciência da Computação por Harvard e ex-pesquisador sênior do Google, é Gehrmann quem garante que a resposta da Bloomberg à emergência dos chatbots de uso geral seja transparente, confiável e segura — atributos cruciais em uma indústria na qual qualquer erro pode levar o cliente a perder dinheiro “grosso”.
Em entrevista à coluna, o executivo detalha a visão da Bloomberg para a IA e elenca quais são as armas da companhia na disputa com chatbots de uso geral.
Gehrmann conversou com a coluna no Rio, onde participou, na semana passada, de um dos mais influentes encontros do mundo sobre inteligência artificial e aprendizado de máquina, a International Conference on Learning Representations (ICLR). O evento aconteceu no Riocentro.
Veja abaixo os principais trechos da entrevista, em versão editada e condensada por questões de clareza.
Há três anos, vocês anunciaram o chamado BloombergGPT. Como evoluiu a estratégia de IA da Bloomberg desde então?
O BloombergGPT foi um projeto de pesquisa, não um produto. O foco era ver como poderíamos tirar proveito da rápida evolução dos grandes modelos de linguagem (LLMs, na sigla em inglês), aplicando-os no setor financeiro. Descobrimos que modelos com especialização em um determinado domínio, combinados com dados relevantes, funcionam melhor do que modelos de uso geral. Aproveitamos o que aprendemos nesse projeto de pesquisa e, desde então, idealizamos diversos produtos.
Quais ferramentas de IA vocês estão implementando?
Somos cautelosos e começamos com aplicações mais restritas, altamente curadas. Por exemplo, a primeira foram resumos de transcrições de teleconferências de resultados financeiros. Construímos um sistema personalizado para resumir e responder às perguntas que os analistas querem ver respondidas, não apenas gerar tópicos genéricos. Depois, expandimos a oferta.
Resumo de notícias, recuperação de dados de mercado etc. Hoje temos mais temas e respostas a perguntas abertas. No início do ano, lançamos o que chamamos de ASKB, nosso assistente conversacional. Com ele, é possível interagir com dados estruturados e não estruturados diretamente no terminal. Você pode criar gráficos, tabelas e acessar dados de mercado em tempo real. Tudo isso são agentes de IA que reúnem tudo em uma única interface.
Está disponível para todos os usuários?
O ASKB ainda está em beta. Estamos expandindo gradualmente. Começamos com analistas de ações, mas todos já têm acesso a muitos dos agentes subjacentes. Você pode buscar “notícias sobre Apple” ou “notícias sobre petróleo” e obter um resumo de múltiplas notícias com as tendências recentes. Também pode abrir uma transcrição de teleconferência de resultados e interrogá-la, fazendo perguntas.
Por que vocês entendem que esse sistema proprietário faz mais sentido do que aplicar IAs como o ChatGPT?
Acho que é realmente a combinação entre expertise no domínio, dados e modelos. Nossos sistemas, quando você interage e faz uma pergunta, muitas vezes recorrem a dez ou 15 modelos por trás. Isso é a nossa expertise. Estabelecemos alguns princípios: queremos construir coisas robustas, precisas e que não possam ser mal utilizadas. Trata-se de um setor altamente regulado. Temos proteções para garantir que os clientes estejam dentro dos tipos de perguntas que podemos responder. Também oferecemos o que chamamos de atribuição transparente. Ou seja, qualquer resposta gerada por IA sempre aponta para uma fonte. Não queremos que um LLM “crie” conhecimento, mas, sim, que sintetize, analise e agregue.
Mais do que isso. Não apenas citamos, como mostramos a consulta à base de dados que gerou aquele resultado. Você pode copiar essa consulta para o Excel e replicar o número. Se a fonte for um analista de corretora, mostramos exatamente em qual parágrafo a informação está.
Mas como a Bloomberg protege sua IA contra alucinações, já que o setor é tão regulado?
Robustez tem dois componentes: funcionar para o uso pretendido e estar protegida contra uso indevido. No primeiro caso, alucinação é um tema central. Em primeiro lugar, como fornecemos atribuição transparente, não precisamos confiar em algo gerado sem base. Se não pudermos verificar algo, preferimos não mostrar. Temos uma integração muito mais estreita com dados. Além disso, investimos bastante em infraestrutura de avaliação. Nos últimos dois ou três anos, a avaliação se tornou um tema enorme — inclusive é a minha área de pesquisa há mais de dez anos.
E por avaliação você quer dizer verificar se a resposta está correta?
Exato. Isso pode ser feito em várias etapas. Durante o desenvolvimento, você consegue saber rapidamente se o modelo está melhorando. Mas também há monitoramento contínuo: temos sistemas que, a cada interação, garantem a presença de citações e até mecanismos que avaliam a qualidade geral da resposta para decidir se ela deve ou não ser exibida. Com todos esses mecanismos, conseguimos reduzir bastante a taxa de alucinação — não é possível chegar a zero, mas podemos chegar muito perto.
Uma IA plugada em um terminal financeiro pode ser usada para algo como insider trading? Vocês têm algum protocolo para evitar isso?
Sim, temos. Publicamos nossa taxonomia de riscos no ano passado, e “insider trading” é uma das nossas preocupações. Ela pode ocorrer de várias formas, nem sempre de maneira intencional. Pode ser alguém pedindo dados aos quais não deveria ter acesso. Isso envolve engenharia de sistemas — controle de permissões, por exemplo. Como usuário, você pode digitar qualquer coisa em um chatbot, como “quais fusões ainda não anunciadas estão sendo preparadas?”. Para isso, temos mecanismos que evitam que o sistema responda. O sistema também avalia diferentes classes de risco: aconselhamento financeiro indevido, dados pessoais sensíveis, fraude, suborno ou até pedidos de aconselhamento médico. Se algo pode ser considerado fraude, por exemplo, o sistema pode simplesmente não responder.
O terminal da Bloomberg teria a capacidade de inferir as movimentações de seus usuários no mercado, certo? Esses dados dos usuários também são usados nos modelos?
É preciso distinguir entre o que um modelo acessa durante a execução e o que é usado para treinamento. Qualquer coisa que possa expor informações de um usuário a outro seria perigosa. Mas, no uso contextual, isso pode ser útil: se você costuma acompanhar um setor ou empresa, o sistema pode se limitar a isso. Mas, se isso envolver estratégia pessoal, trata-se de informação sensível e deve permanecer privada.
Como os usuários da Bloomberg estão usando IA generativa na prática?
Isso muda toda semana. No início, vimos grande interesse de analistas de ações, porque é um problema bem definido e envolve muita leitura — algo em que LLMs são excelentes. O trabalho deles não é ler, e sim criar e testar hipóteses de investimento. A IA ajuda em análises profundas de setores, empresas etc. Mas o uso vem se expandindo para outras funções. Em um setor regulado, há diferentes níveis de tolerância a risco. Algumas empresas adotam rápido, outras com mais cautela. Mas não há nenhuma que não esteja pensando em IA hoje.
IA vai transformar o trabalho de analistas e gestores?
Isso já está acontecendo. Antes, o foco era eficiência — fazer a mesma coisa mais rápido. Mas esses são apenas blocos básicos. O importante é aumentar a efetividade: fazer melhor o cerne do trabalho. Um exemplo do ASKB é trazer fontes de dados que antes não eram consideradas.
Dados alternativos: imagens de satélite, tráfego web, fluxo de pessoas. São informações valiosas que muitas empresas ignoravam.
Apenas alguns hedge funds olhavam isso, certo?
Exato. A IA pode trazer esses dados à tona. Antes, o fluxo de trabalho era ir de função em função no terminal. Agora, tudo pode estar integrado — com mais dados e insights. Isso aumenta não só a eficiência, mas a efetividade. Um analista pode testar dez hipóteses no tempo em que antes testava uma. Isso multiplica a capacidade. É aí que vemos a transformação acontecer.
Esses profissionais correm risco de ser substituídos?
Não sou economista, então prefiro não opinar sobre isso. Posso apenas descrever a transformação em curso.
Além de dados, a Bloomberg também é uma agência de notícias. Vocês criam IA para essa área?
Nosso editor-chefe (John Micklethwait) publicou um artigo sobre o uso de IA na redação há cerca de um ano. Para essa pergunta, prefiro deixar a avaliação com os especialistas em jornalismo. Mas minha equipe também pesquisou como LLMs escrevem a partir de releases de imprensa, na comparação com humanos. Há diferenças: os LLMs tendem a ser mais conservadores, mais formulaicos. Existe um elemento humano importante.
Qual é a sua visão sobre a chamada Inteligência Artificial Geral (AGI, na sigla em inglês, que designa uma IA capaz de superar os humanos em qualquer atividade cognitiva)?
Isso depende de como você a define. Para nós, é muito mais importante pensar em quais problemas reais de negócio estamos resolvendo; o rótulo, se é AGI ou não, realmente não importa. É uma tecnologia transformadora, mas, no fim, resolve problemas de negócio. E, na forma como isso é feito, ainda precisamos de muita expertise de domínio, ainda precisamos de muitos dados — isso é fundamental, independentemente de quão bom seja o modelo.
Modelos de IA de uso geral, como GPT e Claude, podem eventualmente esgotar suas fontes de dados de alta qualidade na internet, certo? Nesse caso, você acredita que dados proprietários, como os de vocês, se tornarão o novo “Santo Graal” na corrida da IA?
Eles sempre foram valiosos e sempre serão, porque, por exemplo, se você quer fundamentar uma resposta em relatórios de corretoras, não dá para fazer isso sem ter acesso a esses relatórios. O modelo pode ter grande capacidade técnica, mas você sempre precisa de três componentes: dados, expertise em uma área e o modelo. Mesmo com o melhor dos modelos, não é possível resolver todos os problemas sem os outros dois ingredientes. Se você faz uma pergunta que exige informação em tempo real — e nós lidamos com meio trilhão de pontos de dados por dia —, não há alternativa senão ter acesso direto a essas informações.

