Tecnologia
PUBLICIDADE
Por — São Paulo

RESUMO

Sem tempo? Ferramenta de IA resume para você

GERADO EM: 20/06/2024 - 09:00

IA: ChatGPT e Gemini têm alucinações

Inteligência artificial como ChatGPT e Gemini sofrem de alucinações, gerando respostas sem sentido. Problema decorre do raciocínio baseado em probabilidade, levando a respostas equivocadas e inventadas. A qualidade dos dados de treinamento influencia nos erros, mas melhorias estão sendo feitas para minimizar o problema.

O advento das ferramentas modernas de inteligência artificial (IA) generativa como ChatGPT, Gemini e Llama trouxe consigo também um problema inusitado inerente a essas ferramentas: a "alucinação".

Tipicamente, cientistas e programadores afirma que um sistema de IA está "alucinando" quando este recebe uma pergunta ou comando (prompt) e produz respostas sem sentido, equivocadas ou até mesmo inventadas, "viaja" mesmo.

Essa alucinação digital ocorre em função da maneira como são projetados os grandes sistemas de IA da categoria dos LLMs (grandes modelos de linguagem, na sigla em inglês). Todos esses projetos alimentados com quantidades enormes de informações escritas têm uma maneira particular de raciocinar, que não é muito similar ao jeito com que humanos pensam.

Quando um LLM produz resposta para uma pergunta, ele parte do texto digitado pelo usuário e usa o seu banco de dados de treinamento para tentar prever quais palavras são mais prováveis aparecer após aquela sequência de texto. Palavra por palavra, o sistema de IA vai produzindo a resposta buscando o resultado mais provável de aparecer após o prompt.

Pessoas não raciocinam dessa maneira e não formulam frases com base em probabilidade de ocorrência de palavras que viram antes. Há uma camada mais profunda de raciocínio semântico operando em nossos cérebros.

Mas isso não impede os LLMs como o ChatGPT de produzir respostas impressionantemente eloquentes e (quase sempre) corretas. Como o diabo mora nos detalhes, o grande problema é quando as respostas não estão corretas.

Engraçado, se não fosse perigoso

Quando não são nocivas, alucinações de IA podem ser até engraçadas. Quando o Google lançou sua ferramenta de IA acoplada à caixa de busca, por exemplo, um usuário imprimiu uma resposta a uma pergunta que viralizou como meme.

O homem tinha pedido ao sistema para gerar uma lista de "nomes de fruta que acabam com eixa". O sistema gerou a lista: "ameixa, bananeixa, laranjeixa, morangueixa...".

Nem sempre o erro produzido é cômico, porém, tampouco óbvio de se detectar. Em uma das versões iniciais do ChatGPT, se você perguntasse ao sistema "quem foi o único sobrevivente do desastre do Titanic?", ele responderia que foi "Charles Joughin, um padeiro britânico".

A resposta está incorreta porque mais de 700 pessoas sobreviveram ao naufrágio. Nesse caso fica claro como próprio usuário é capaz de induzir o sistema de IA ao erro. Mas o equívoco não é perceptível para uma pessoa que não conheça minimamente bem a história do Titanic.

A origem da alucinação, contudo, com muita frequência é interna, sem relação com o usuário. Há, por exemplo, o problema chamado de "overfitting", que ocorre quando o sistema de IA é treinado para tentar ser ultra-específico em todas as instâncias, comprometendo sua capacidade de entender e construir informação mais genérica.

O que dizem as empresas

"Esses lapsos de interpretação podem ocorrer devido a vários fatores, que incluem o overfitting, o viés ou a imprecisão no treinamento e a alta complexidade dos modelos", afirma um comunicado da IBM que orienta programadores para a produção de LLMs. A má qualidade de dados de treinamento, além disso, é um problema que só pode ser corrigido com a substituição desta.

O Google também admite que o problema existe não só nas LLMs e reconhece que ele desestimula que algumas pessoas, como profissionais de saúde, recorram mais à IA.

"Por exemplo, um modelo de IA treinado num conjunto de dados de imagens médicas pode aprender a identificar células de câncer. Mas se o conjunto de dados não incluir nenhuma imagem de tecido saudável, o modelo de IA pode prever incorretamente que o tecido saudável é parte de um tumor", afirmou a empresa em um manual on-line para programação de modelos de IA.

Modelos de inteligência artificial têm sido aprimorados, e algumas das alucinações que apareciam mais comumente estão desaparecendo, mas outras continuam surgindo, sendo difíceis de prever. Não está claro ainda o quanto programadores serão capazes de eliminar o problema. Por enquanto, usuários das LLMs são orientados a empregarem com cautela os resultados obtidos por essas ferramentas.

Mais recente Próxima Conheça nova rede social para idosos lançada em Portugal, Espanha e Brasil