Q*: Por que a nova corrida pela IA matemática intriga e assusta?

Busca de modelo capaz de raciocínio com números gerou guerra interna na OpenAI e é objeto de novo prêmio de US$ 10 milhões

Por — São Paulo


Logo da OpenAI, criadora do Chatgpt, é refletido em olho humano Joel Saget/AFP

A criação de um novo sistema de inteligência artificial (IA), supostamente capaz de raciocínio matemático como o praticado por humanos, desencadeou uma guerra interna na OpenAI, empresa dona do ChatGPT. Foi apontado como um dos motivos por trás da demissão e recondução do CEO da empresa, Sam Altman, num espaço de cinco dias, no mês passado. Descrito como revolucionário pelo executivo, esse novo tipo de IA foi visto como perigoso por parte do antigo conselho da mais valiosa startup do Vale do Silício. Mas por que está gerando tanta controvérsia?

Uma reportagem da agência de notícias Reuters, que teve acesso a informações internas da empresa, revelou que o novo projeto se chama Q* (Q-Star), e que ele seria supostamente capaz de solucionar problemas matemáticos para os quais não foi programado. Ele teria, portanto, um certo poder de criar conhecimento próprio à medida que raciocina, aprendendo sozinho.

Lidar com matemática é algo para o qual os "grandes modelos de linguagem" (LLMs), sistemas de IA da classe do ChatGPT, não foram projetados. Esses sistemas de IA generativa que se popularizam atualmente funcionam mapeando grandes quantidades de informação escrita que os alimentam, para depois regurgitar textos de uma maneira peculiar, prevendo quais palavras são mais prováveis de ocorrer antes de outra.

Essa estratégia funciona quase como mágica em tarefas de geração de texto, mas não é particularmente boa para responder a questões matemáticas, mesmo algumas relativamente simples. Resolver uma equação de segundo grau, por exemplo, é uma tarefa que envolve uma fórmula predefinida e um número de passos num sistema formal de resolução, que não é o que os LLMs fazem.

Quando o ChatGPT foi lançado, professores que testaram sua capacidade para resolver questões do Enem, por exemplo, logo constataram que ele não ia muito bem em matemática. A própria OpenAI já vinha tentando compensar essa limitação de seu sistema. A versão paga do ChatGPT hoje está acoplada ao sistema Wolfram Alpha, um projeto de IA que já existe há mais de uma década e foi criado especificamente para resolver questões técnicas que envolvam matemática e conceitos das ciências naturais.

Q* foi apontado em reportagens como um dos fatores para a saída de Sam Altman do comando da empresa. Ele foi reconduzido ao cargo — Foto: Bloomberg

O Wolfram nunca chegou perto, porém, de alcançar a popularidade que o ChatGPT conquistou em 2023 em poucas semanas. Em parte, isso se deve à maneira com que os usuários devem interagir com o sistema, obedecendo a uma formalidade ao digitar a questão, detalhando a operação que se deseja resolver.

Acoplado ao ChatGPT, esse desconforto foi superado, mas nem sempre o sistema retorna uma resposta correta. É um desafio ainda, para a IA, saber "como" pensar diante de cada tarefa. Num problema com enunciado informal, a conexão da linguagem com a matemática pode se perder.

A controvérsia em torno do Q* certamente ajudou a atrair atenção para esse problema, mas não se sabe ainda se ele consegue raciocinar matemática de uma forma realmente mais eficaz.

Encadeamento lógico

Segundo Paulo Orenstein, pesquisador do Instituto de Matemática Pura e Aplicada (Impa), o que os LLMs fazem hoje ainda é uma matemática rasa, e não operações que exigem de fato um encadeamento lógico.

— Se eu perguntar quanto é 2 + 2, você vai falar 4, mas você não teve que pensar para fazer a conta. Você basicamente decorou isso um dia, porque já ouviu essas palavras algumas vezes. Agora, se eu pedir para calcular 17 x 34, você sabe fazer, mas vai ter que parar e pensar com calma, aplicar o seu próprio algoritmo, para chegar à resposta — explica o matemático. — Uma maneira de pensar o que o ChatGPT faz, por enquanto, é que ele só têm fundamentalmente esse primeiro sistema de pensamento, que é basicamente um “fluxo de consciência”.

É razoável imaginar que essa limitação é algo que o Q* esteja tentando resolver, porque a OpenAI não está sozinha nessa busca. Criar ou acoplar sistemas de raciocínio matemático às LLMs é uma meta que várias empresas e grupos de pesquisa estão perseguindo, e um prêmio acaba de ser anunciado para quem chegar lá primeiro.

A XTX Markets, uma empresa especializada em algoritmos para atuação no mercado financeiro, patrocina a Olimpíada Internacional de Matemática, uma competição em que estudantes competem na solução de problemas. A companhia anunciou nesta semana um prêmio de US$ 10 milhões para o primeiro grupo de pesquisa que conseguir criar um sistema de inteligência artificial capaz de ganhar medalha de ouro no torneio.

Se é consenso que essa é uma frente importante para a inteligência artificial avançar, muitos pesquisadores veem um pouco de exagero quando se especula que sistemas capazes de um raciocínio mais eficiente no campo trarão mais ameaças que hoje.

Apocalipse cibernético

A Academia Brasileira de Ciência publicou recentemente um documento sobre potenciais de benefício e riscos da IA para o país.

A Academia Brasileira de Ciência publicou recentemente um documento sobre benefícios e riscos potenciais da IA para o país. O texto — assim como manifestos similares em outros países — não menciona a chance de LLMs produzirem a “inteligência artificial geral”, capaz de atingir um ponto de “singularidade”, em que computadores se tornam mais inteligentes ou conscientes que humanos.

— A gente tem de separar o que realmente está acontecendo daquilo que é muito mais uma propaganda — diz Edmundo de Souza e Silva, professor de Ciência da Computação na UFRJ e um dos autores do relatório. — Já teve livro de ficção científica dizendo que algum dia pode ser que atinja esse estágio, mas na minha opinião ainda estamos bastante longe.

Imagem gerada por inteligência artificial mostra robô solucionando equação matemática — Foto: Dall-E 3/OpenAI

Existem preocupações éticas mais prementes para a regulação da inteligência artificial, diz Souza e Silva, como a ameaça a empregos que serão automatizados e a possibilidade de se gerar mais caos na internet com a criação de notícias falsas mais convincentes.

— Não é nada como no filme “Exterminador do Futuro”, com aquele sistema de IA Skynet, que virou vilão e tentou aniquilar os humanos — diz. — Precisamos é ter o cuidado de evitar que a IA que já existe seja usada para o mal. Como sociedade, precisamos assegurar que seja usada para o bem.

O problema com os temores que o Q* estaria gerando internamente na OpenAI é que ninguém de fora sabe se não passam de confabulação catastrofista ou se há alguma preocupação concreta que os embase. A maior parte dos arcabouços éticos e de regulação para IA aponta os itens de “segurança” e “transparência” como as principais frentes de risco para essa tecnologia. São esses os dois valores em jogo nessa história.

Mais recente Próxima Acordo do Google com o Canadá sinaliza força da regulação