Tecnologia
PUBLICIDADE
Por — São Paulo

RESUMO

Sem tempo? Ferramenta de IA resume para você

GERADO EM: 19/06/2024 - 12:01

Detecção de 'alucinações' em IA

Cientistas da Universidade de Oxford desenvolveram método para detectar 'alucinações' em inteligência artificial, visando minimizar respostas falsas e não confiáveis geradas por sistemas de IA. A solução proposta envolve avaliação por múltiplos modelos de IA para detectar e evitar confabulações, melhorando a precisão e confiabilidade das respostas geradas.

Uma das grandes limitações de grandes sistemas de inteligência artificial hoje é a tendência que eles têm de produzir "alucinações", construindo informação falsa e a repassando como verdadeira. Um grupo de cientistas relatou hoje estar no caminho para resolver esse problema, submetendo a reposta à avaliação por mais dois sistemas de IA.

O problema das respostas falsas dadas a perguntas objetivas é particularmente preocupante em projetos da classe dos LLMs (grandes modelos de linguagem), como o ChatGPT, sujeitos alucinações que cientistas chamam de confabulações. Elas ocorrem quando o sistema busca resposta convincente sem ter tido o material necessário para construí-las incluído em seus dados de treinamento, o volume enorme de informações que tipicamente abastece as LLMs.

As alucinações em grande medida porque é difícil calibrar os modelos para traçar o limite de uma ignorância responsável. Em outras palavras, quando um LLM recebe uma pergunta, mas tem poucas informações sobre o tópico abordado, ele precisa decidir se afirma ao usuário que não tem como fazê-lo ou se tenta respondê-la mesmo assim.

Quando está confabulando, um sistema de IA pode criar uma resposta que não faz sentido, algo que usuários humanos normalmente conseguem identificar. O comportamento mais nocivo, porém, é quando a confabulação produz uma resposta convincente, mas totalmente inventada.

Um quarteto de pesquisadores da Universidade de Oxford, porém, relata hoje em estudo publicado nesta quarta-feira que achou uma solução para minimizar esse comportamento indesejado da inteligência artificial.

Liderados pelo cientista da computação Sebastian Farquhar, os cientistas explicam como o fizeram em um artigo na revista Nature.

"Alucinações são um problema crítico para sistemas de geração de linguagem natural, como o ChatGPT e o Gemini, porque os usuários não podem confiar que uma dada resposta está correta", afirmam os pesquisadores.

"Respostas suspeitas ou sem a necessária informação impedem a adoção de LLMs em diversas áreas. Entre os problemas estão a invenção de antecedentes legais e de fatos inverídicos em notícias em algumas áreas da medicina, como a radiologia, podem até apresentar risco de morte."

A solução que o grupo de Farquhar encontrou para minimizar o problema foi a de submeter as respostas fornecidas por LLMs ao processamento por um segundo LLM, depois um terceiro. O que esse sistema extra de IA faz é analisar como a construção da resposta foi feita em termos de semântica, ou seja, de significado das frase construídas.

E para fazer essa análise, os cientistas emprestaram um conceito da física: a entropia, que serve para medir o caos e a aleatoriedade de um sistema.

No estudo, os pesquisadores explicam que quando um LLM produz uma resposta, ele precisa selecioná-la em meio a um conjunto de possíveis respostas que o próprio sistema cria. Quando possui pouca informação de base para dar uma resposta complexa, o sistema gera uma porcentagem mais alta de respostas que têm sentido diferente, apesar de embutirem um grupo de palavras parecidas. Em outras palavras, dados incertos levam a um maior caos interno para o sistema manejar.

Uma propriedade interessante desse caos, ou entropia, é que ele pode ser medido por segundo LLM acoplado ao sistema. E, por fim, um terceiro LLM pode ser acoplado para interpretar essa medida e dizer quão provável é uma resposta do sistema ser produto de confabulação. Essa é a arquitetura proposta pelo grupo de Oxford para aprimorar o sistema como um todo.

Para testar a ideia, Farquhar criou sistemas de avaliação para respostas oferecidas por três ferramentas de IA já existentes. O teste foi feito com o Llama 2 (do Facebook), Mistral Instructor (da empresa francesa Mistral) e Falcon (do Instituto de Inovação Tecnológica de Dubai), que providenciaram código aberto para a pesquisa. ChatGPT e Gemini não entraram no experimento.

Fogo contra fogo

No estudo, os pesquisadores relatam boas taxas de acerto dos sistemas avaliados (de 70% a 80%) em apontar alucinações desses sistemas em pequenas biografias geradas por inteligência artificial, além de questões de saúde e de conhecimento geral.

Em um artigo independente publicado pela própria Nature, uma outra cientista da computação comentou o avanço. Karin Vespoor, do Royal Melbourne Institute of Technology, da Austrália, reconheceu a engenhosidade do grupo em criar um método para detectar alucinações, mas afirma que ele precisa ser usado com cautela.

"Os autores do estudo propõem que LLMs podem formar um componente integral de uma estratégia para controlar outros LLMs. Em resumo, a abordagem deles consiste em usar fogo para combater o fogo", diz a cientista.

Segundo Farquhar, essa preocupação não impede, porém, que seu sistema seja implementado de maneira útil para usuários.

"A detecção de confabulações permite que os sistemas construídos em LLMs evitem responder a perguntas que possam causar confabulações, alertem os usuários da falta de confiabilidade das respostas a uma pergunta ou suplementem o LLM com uma pesquisa e coleta de dados mais fundamentada", afirma o cientista.

Mais recente Próxima WhatsApp permitirá conversar em vários idiomas e traduzir mensagens automaticamente; veja como usar
Mais do Globo

Presidente francês arrisca compartilhar o poder com um governo de ideologia política diferente, a menos de um mês do início dos Jogos Olímpicos de Paris 2024

Entenda decisão arriscada de Macron para antecipar eleições na França

Prefeito inaugura complexo habitacional ao lado de Lula na Zona Oeste

Em entrega de obra na Zona Oeste, Eduardo Paes agradece a Lula e fala sobre 'quedinha especial' do presidente pelo Rio

Lucinha é denunciada por fazer parte da milícia de Zinho, na Zona Oeste do Rio

Junior da Lucinha, filho de deputada acusada de integrar grupo criminoso, participa de evento com Lula em área de milícia

Os dois ex-executivos, Anna Saicali e Miguel Gutierrez, estão no exterior. Anna entregará passaporte à PF, enquanto Miguel terá que se apresentar a cada 15 dias às autoridades policiais da Espanha

Americanas: Veja os próximos passos para os principais suspeitos da fraude

Miriam Todd contou seus segredos em um programa de TV: manter-se ativa é um deles

Com 100 anos, mulher que trabalha seis dias por semana revela seu segredo de longevidade: a alimentação

Piloto britânico deu a vitória para a Mercedes depois de 19 meses; Oscar Piastri e Carlos Sainz completaram o pódio.

Fórmula 1: George Russell vence GP da Áustria após batida de Verstappen no fim

Agora, Faustino Oro quer se tornar o grande mestre mais novo; ele tem um ano e meio para bater recorde

Argentino de dez anos se torna o mestre internacional mais jovem da história do xadrez

Aprovado pela Agência Nacional de Vigilância Sanitária (Anvisa) para o tratamento de diabetes tipo 2, o medicamento é comumente utilizado para a perda de peso

Queda de tufos de cabelo e diarreia que duram dias: usuários relatam novos efeitos colaterais do Ozempic

Filha de Silvio Santos provoca burburinho ao dar 'like' em publicação envolvendo nome da mais nova apresentadora contratada pela TV Globo

Patrícia Abravanel curte post e reforça rumores sobre 'rixa' entre Eliana e Virgínia Fonseca; entenda